avril 26, 2024

BreaGeek News

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici. Manchettes, politique et culture françaises sur une chaîne d'information

Chatbots, intelligence artificielle et avenir de la vie privée

Chatbots, intelligence artificielle et avenir de la vie privée

Les chatbots font fureur en ce moment. Ils ont fait l’objet de nombreuses investigations Articles d’actualité Et d’innombrables Messages Twitter, et de nombreuses entreprises investissent des milliards de dollars pour développer davantage la technologie. Nous n’avons atteint que la pointe de l’iceberg, mais les chatbots et autres outils d’IA génératifs sont là pour rester et révolutionneront inévitablement la façon dont nous interagissons avec la technologie et entre nous.

Bien que l’IA et l’apprentissage automatique ne soient pas nouveaux, l’IA générative est différente car elle est déjà intégrée à la culture de consommation. Au lieu que les entreprises utilisent l’IA et l’apprentissage automatique pour améliorer leurs produits et services dans les coulisses, les chatbots et autres outils d’IA sont utilisés par les consommateurs pour un usage quotidien. Cela entraîne déjà des conséquences inattendues. Par exemple, certains Directions de l’éducation Les chatbots interdits parce qu’ils pensent que leur utilisation entraînera des résultats éducatifs négatifs pour les étudiants. Parallèlement, dans le cadre du recrutement, les chatbots jouent un rôle rôle actif dans le processus d’embauche, affectant à la fois les demandeurs d’emploi et le personnel RH qui pourrait être remplacé par ces systèmes. Les problèmes de société non résolus liés à la diffusion de l’IA évoluent aussi rapidement que la technologie elle-même.

La croissance des chatbots et des outils d’IA associés peut avoir des conséquences imprévues sur la vie privée des consommateurs. La collecte de données est essentielle au développement d’outils d’IA. Les chatbots en particulier larguent des milliards d’utilisateurs points de données en ligne pour former et mettre à jour leurs modèles de langage prédictif. En fait, si vous demandez à ChatGPT quelles informations il utilise, il vous dira qu’il « s’est formé sur un grand ensemble de données textuelles, composé de milliards de mots, d’expressions et de phrases », qui comprenait « une variété de sources de texte, y compris livres, articles, sites Web et autres contenus numériques. » « . En termes de sources, la dernière mise à jour de ChatGPT, GPT-4, Il aurait été formé à l’aide de données accessibles au public (y compris des données Internet), ainsi que de données sous licence par les développeurs.

READ  iQOO 11 Fuites d'affichage de 6,78 pouces à 144 Hz, les détails de Neo7 SE fuient également

Interrogé, ChatGPT insiste sur le fait qu’il ne dispose d’aucune information personnelle sur les utilisateurs. Mais la réalité est plus complexe, en partie parce que les règles régissant les informations personnelles évoluent presque aussi vite que la technologie de l’IA elle-même. Les nouvelles lois sur la confidentialité qui entreront en vigueur, telles que la California Privacy Rights Act, appliquent une définition élargie des informations personnelles, qui inclut les déductions qu’une entreprise peut faire sur un consommateur à des fins de profilage. Cette définition élargie est importante car elle montre comment même les informations accessibles au public qui peuvent ne pas être couvertes par les lois pertinentes sur la protection de la vie privée peuvent créer des problèmes potentiels de confidentialité.

Par exemple, plus j’utilise un chatbot particulier, plus il en apprendra sur moi. C’est la nature de l’intelligence artificielle. Bien sûr, il traitera directement les informations que je fournis, mais il peut aussi théoriquement faire certaines hypothèses bien informées à mon sujet. Ces hypothèses peuvent être basées sur mon âge, mon sexe, ma profession, mes intérêts et les milliards de points de données supplémentaires que j’ai traités sur d’autres utilisateurs potentiellement similaires. Ces informations sont précieuses car il s’agit exactement du type de données déterministes sur lesquelles les annonceurs s’appuient à des fins de ciblage. Si les chatbots et les outils d’intelligence artificielle associés deviennent vraiment courants, ils pourraient fournir aux annonceurs une multitude de nouvelles informations pour diffuser des publicités personnalisées potentiellement plus précises que les types de données qu’ils utilisent actuellement. Cela conduit à certains avantages potentiels pour les consommateurs, mais cela exacerbe également les inquiétudes que nous pourrions avoir concernant le modèle de publicité ciblée en général, un domaine qui a déjà fait l’objet d’un examen minutieux de la part des régulateurs de la protection de la vie privée.

READ  Les détails du Samsung Galaxy S24 ont été divulgués prématurément, peut-être par accident

Il existe également des problèmes de confidentialité potentiels concernant ce qu’un outil d’IA générative peut dire à un utilisateur sur d’autres personnes. Pour l’instant, du moins en théorie, un chatbot ne donnerait pas d’informations non publiques sur une autre personne si on le lui demandait. Mais on peut facilement imaginer un scénario dans lequel une entreprise développe un chatbot qui n’est pas lié par les mêmes restrictions. Semblable à la façon dont un chatbot peut faire des inférences prescriptives sur ses utilisateurs, il peut également développer les mêmes hypothèses sur n’importe quel individu sur Internet en utilisant ses goûts, ses tweets, ses commentaires et d’autres points de données accessibles au public. Ensuite, il y a le scénario « moi, bot », où un acteur potentiellement malveillant peut utiliser un chatbot pour voler des mots de passe et d’autres données sensibles à des fins illégitimes. Ce ne sont là que quelques-uns des problèmes potentiels de protection des données posés par l’essor de l’IA générative.

Pour être clair, la Loi sur la protection des renseignements personnels contient déjà certaines règles qui s’appliquent à ces questions. Il existe des normes pour ce qui est et ce qui n’est pas des informations personnelles, c’est-à-dire que des définitions spécifiques d’informations anonymes, agrégées et accessibles au public doivent être prises en compte. Lors du traitement des informations personnelles, l’avis, le consentement, le contrat et toute une série d’autres exigences sont susceptibles de s’appliquer. Il existe des réglementations supplémentaires pour des cas d’utilisation spécifiques, tels que la publicité ciblée et la prise de décision automatisée. Il existe également des obligations relatives à la sécurité des données des informations personnelles et des lois qui s’appliquent lorsque certaines catégories d’informations sont violées.

Bien que les lois actuelles sur la confidentialité des données offrent au moins une certaine forme de protection aux consommateurs concernant cette technologie émergente, nous avons la possibilité de traiter de manière proactive les implications uniques de l’IA générative en matière de confidentialité avant qu’elle ne devienne plus ancrée dans notre vie quotidienne. Au lieu de réglementer par derrière, comme nous avons essayé de le faire avec la publicité ciblée, nous pouvons définir dès le départ des règles concernant l’utilisation des données et les objectifs de l’IA générative. Cette approche pourrait atténuer certaines préoccupations inattendues que nous pourrions avoir avec cette technologie, du moins du point de vue de la confidentialité.

READ  L'authentification par empreinte digitale Windows contournée - Spiceworks

Cependant, même si nous convenons que répondre de manière proactive aux problèmes de confidentialité dans l’IA générative est la bonne approche, il reste des questions sur la mise en œuvre. Par exemple, qui devrait prendre l’initiative de s’organiser sur cette question ? Les règles devraient-elles provenir du Congrès américain, ou les États devraient-ils diriger, comme ils l’ont fait avec des propositions radicales sur la protection de la vie privée ? Est-ce un domaine que la Federal Trade Commission des États-Unis doit aborder avec ses règles à l’avenir, ou devrions-nous nous fier à l’autorégulation de l’industrie comme c’est le cas dans l’espace publicitaire ciblé ? Il y a aussi des problèmes de portée. Les questions de confidentialité liées à l’IA devraient-elles être traitées dans le cadre de la réglementation de la confidentialité en général, par exemple par le biais de lois telles que la CPRA, ou devrions-nous avoir des règles distinctes pour l’IA afin de traiter spécifiquement l’ensemble des problèmes potentiels liés à cette technologie, comme cela a été suggéré En Europe et au Canada ?

Ce ne sont là que quelques-unes des nombreuses questions qui façonneront le débat sur la réglementation de l’IA générative. Si ces conversations se produisent plus tôt que tard et conduisent à l’élaboration d’un cadre réglementaire approprié, nous serons en mesure d’intégrer cette technologie en évolution dans notre vie quotidienne tout en étant à l’aise avec les risques associés, y compris ceux liés à la vie privée des consommateurs.