mai 2, 2024

BreaGeek News

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici. Manchettes, politique et culture françaises sur une chaîne d'information

Google, l’un des plus grands partisans de l’IA, met en garde ses employés contre les chatbots, ETHRWorldSEA

Google, l’un des plus grands partisans de l’IA, met en garde ses employés contre les chatbots, ETHRWorldSEA



<p> Les chatbots, parmi lesquels Bard et ChatGPT, sont des programmes de type humain qui utilisent ce qu’on appelle l’intelligence artificielle générative pour avoir des conversations avec les utilisateurs et répondre à d’innombrables invites.  </p>
<p>« /><figcaption class=Les chatbots, parmi lesquels Bard et ChatGPT, sont des programmes de type humain qui utilisent ce qu’on appelle l’intelligence artificielle générative pour avoir des conversations avec les utilisateurs et répondre à d’innombrables invites.

Écrit par Jeffrey Dustin et Anna Tong

SAN FRANCISCO – Alphabet Inc met en garde les employés sur la façon dont ils utilisent les chatbots, y compris son barde, en même temps qu’il commercialise le logiciel dans le monde entier, ont déclaré à Reuters quatre personnes proches du dossier.

La société mère de Google a conseillé aux employés de ne pas saisir ses documents confidentiels dans des chatbots intelligents, ont déclaré les personnes et la société a confirmé, citant une politique de longue date sur la protection des informations.

Les chatbots, parmi lesquels Bard et ChatGPT, sont des programmes de type humain qui utilisent ce qu’on appelle l’intelligence artificielle générative pour avoir des conversations avec les utilisateurs et répondre à d’innombrables invites. Les chats peuvent être lus par les examinateurs, et les chercheurs ont découvert qu’une IA similaire peut reproduire les données qu’elle a aspirées pendant la formation, créant un risque de fuite.

Certaines personnes ont déclaré qu’Alphabet avait également averti ses ingénieurs d’éviter l’utilisation directe du code informatique que les chatbots pourraient générer.

Lorsqu’on lui a demandé des commentaires, la société a déclaré que Bard pouvait faire des suggestions de code non sollicitées, mais que cela aidait néanmoins les programmeurs. Google a également déclaré qu’il visait à être transparent sur les limites de sa technologie.

Les inquiétudes montrent comment Google veut éviter de nuire aux entreprises des programmes qu’il a lancés en concurrence avec ChatGPT. Les enjeux de la course de Google contre les bailleurs de ChatGPT OpenAI et Microsoft Corp sont des milliards de dollars d’investissements et des revenus publicitaires et cloud encore incalculables provenant de nouveaux logiciels d’IA.

L’avertissement de Google reflète également ce qui est devenu une norme de sécurité pour les entreprises, mettant en garde les individus contre l’utilisation de chatbots accessibles au public.

Un nombre croissant d’entreprises dans le monde ont mis en place des pare-feu sur les chatbots IA, ont déclaré les entreprises à Reuters, parmi lesquelles Samsung, Amazon.com et Deutsche Bank. Apparemment, Apple, qui n’a pas répondu aux demandes de commentaires, l’a également fait.

Environ 43% des professionnels utilisaient ChatGPT ou d’autres outils d’IA en janvier, souvent sans le dire à leurs patrons, selon une enquête auprès de près de 12 000 répondants, y compris de grandes entreprises basées aux États-Unis, menée par le site du réseau Fishbowl. .

En février, Google a demandé aux employés qui testaient le Bard avant son lancement de ne pas lui donner d’informations privilégiées, a rapporté Insider. Google déploie désormais Bard dans plus de 180 pays et dans 40 langues comme tremplin vers la créativité, et ses mises en garde s’étendent à ses suggestions de code.

Google a déclaré à Reuters qu’il avait eu des entretiens détaillés avec la Commission irlandaise de protection des données alors qu’il répondait aux questions des régulateurs, à la suite du rapport de Politico mardi selon lequel la société retardait le lancement de Bard dans l’UE cette semaine en attendant plus d’informations sur l’impact du chatbot sur la vie privée.

Préoccupations concernant les informations sensibles

Une telle technologie peut créer des e-mails, des documents et même les programmes eux-mêmes, promettant d’accélérer les tâches de manière exponentielle. Cependant, ce contenu pourrait inclure de fausses informations, des données sensibles ou même des passages protégés par le droit d’auteur du roman « Harry Potter ».

L’avis de confidentialité de Google, mis à jour le 1er juin, stipule également : « N’incluez pas d’informations confidentielles ou sensibles dans vos conversations avec Bard. »

Certaines entreprises ont développé des logiciels pour répondre à ces préoccupations. Par exemple, Cloudflare, qui défend les sites Web contre les cyberattaques et propose d’autres services cloud, commercialise la possibilité pour les entreprises de marquer et de restreindre certaines données de la sortie.

Google et Microsoft proposent également des outils conversationnels aux clients professionnels qui factureront un prix plus élevé mais s’abstiendront d’ingérer des données dans des modèles d’IA génériques. Le paramètre par défaut dans Bard et ChatGPT consiste à enregistrer l’historique de discussion des utilisateurs, que les utilisateurs peuvent choisir de supprimer.

Yousef Mahdi, directeur du marketing grand public de Microsoft, a déclaré qu’il « était logique » que les entreprises ne souhaitent pas que leurs employés utilisent des chatbots publics au travail.

« Les entreprises adoptent dûment une position conservatrice », a déclaré Mehdi, expliquant comment le chatbot gratuit Bing de Microsoft se compare à son logiciel d’entreprise. « Là-bas, nos politiques sont beaucoup plus strictes. »

Microsoft a refusé de dire s’il avait une interdiction générale pour les employés de saisir des informations confidentielles dans les programmes publics d’IA, y compris le sien, bien qu’un autre dirigeant ait déclaré à Reuters qu’il avait personnellement restreint son utilisation.

Écrire des questions confidentielles dans des chatbots revenait à « pelleter un groupe d’étudiants en doctorat partout dans vos dossiers privés », a déclaré le PDG de Cloudflare, Matthew Prince.

(Reportage de Jeffrey Dustin et Anna Tong à San Francisco; Montage par Kenneth Lee et Nick Zieminski)

  • Publié le 20 juin 2023 à 07 h 00 HNE

Rejoignez une communauté de plus de 2 millions de professionnels de l’industrie

Abonnez-vous à notre newsletter pour obtenir les dernières informations et analyses.

Recevez des mises à jour sur votre plateforme sociale préférée

Suivez-nous pour obtenir les dernières nouvelles, un accès privilégié aux événements et plus encore.

READ  Sony a annoncé PlayStation Stars, un programme de fidélité pour les joueurs