mai 2, 2024

BreaGeek News

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici. Manchettes, politique et culture françaises sur une chaîne d'information

Les avocats ont fourni une fausse jurisprudence créée par ChatGPT.  Un juge leur a infligé une amende de 5 000 $ – Business News

Les avocats ont fourni une fausse jurisprudence créée par ChatGPT. Un juge leur a infligé une amende de 5 000 $ – Business News

Un juge fédéral a infligé jeudi une amende de 5 000 $ à deux avocats et à un cabinet d’avocats dans une affaire sans précédent. discuter Il a été accusé d’avoir déposé des recherches juridiques fictives dans le cadre d’une réclamation pour blessure d’une compagnie aérienne.

Le juge B. a déclaré : Kevin Castle Ils ont agi de mauvaise foi. Mais il a crédité leurs excuses et les mesures correctives prises pour expliquer pourquoi des sanctions plus sévères n’étaient pas nécessaires pour garantir qu’eux-mêmes ou d’autres ne seraient plus jamais autorisés à pousser les outils d’IA pour produire de faux antécédents juridiques dans leurs arguments.

« Les progrès technologiques sont monnaie courante et il n’y a rien de fondamentalement indécent à utiliser un outil d’IA de confiance pour aider », a écrit Castle. « Mais les règles actuelles imposent un rôle de garde aux avocats pour s’assurer de l’exactitude de leurs dossiers. »

Le juge a déclaré que les avocats et leur cabinet, Levidow, Levidow & Oberman, PC, « ont abandonné leurs responsabilités lorsqu’ils ont présenté des avis judiciaires inexistants avec de fausses citations et citations créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à se tenir à côté du faux des avis postérieurs à des ordonnances judiciaires remettaient en cause leur existence même. » « .

READ  L'Ukraine rejette l'appel du Pape à « hisser le drapeau blanc » pour mettre fin à la guerre en Russie | Nouvelles de la guerre russo-ukrainienne

Dans un communiqué, le cabinet d’avocats a déclaré qu’il se conformerait à l’ordonnance de Castell, mais a ajouté: « Nous sommes respectueusement en désaccord avec la conclusion selon laquelle quiconque dans notre cabinet a agi de mauvaise foi. Nous nous sommes déjà excusés auprès du tribunal et de notre client. Nous continuons à Je crois que face à ce que le tribunal a reconnu être une situation sans précédent, nous avons commis une erreur de bonne foi en ne croyant pas qu’une technologie pourrait fabriquer des problèmes à partir de la toile complète.

La société a déclaré qu’elle envisageait de faire appel.

Castell a déclaré que la mauvaise foi résultait de l’incapacité des avocats à répondre correctement au juge et à leurs adversaires légaux lorsqu’il a été noté qu’il n’y avait pas six affaires juridiques répertoriées pour étayer leurs arguments écrits le 1er mars.

Le juge a cité « des explications variables et contradictoires » fournies par l’avocat Stephen Schwartz. Il a menti sur le fait qu’il était en vacances et a été malhonnête en affirmant la véracité des données fournies à Castell, a déclaré l’avocat Peter LoDuca.

Lors d’une audience plus tôt ce mois-ci, Schwartz a déclaré qu’il avait utilisé un chatbot alimenté par l’IA pour l’aider à trouver des précédents juridiques à l’appui de l’affaire d’un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d’un vol en 2019.

Microsoft a investi environ un milliard de dollars dans OpenAIla société derrière ChatGPT.

Le chatbot, qui génère des réponses de type essai aux réclamations des utilisateurs, a suggéré plusieurs cas d’accidents d’avion que Schwartz n’a pas pu trouver grâce aux méthodes habituelles utilisées dans son cabinet d’avocats. Beaucoup de ces cas n’étaient pas réels, mal identifiés par les juges ou impliquaient des compagnies aériennes inexistantes.

READ  Le RNC licencie des dizaines d’employés quelques jours après l’entrée en fonction de l’équipe Trump

Le juge a déclaré que l’une des décisions fictives générées par le chatbot « présente certaines caractéristiques qui sont superficiellement cohérentes avec les décisions judiciaires réelles », mais a déclaré que d’autres parties contenaient du « charabia » et « un non-sens ».

Dans une opinion écrite séparée, le juge a rejeté la poursuite sous-jacente de l’aviation, affirmant que le délai de prescription avait expiré.

Les avocats de Schwartz et Luduca n’ont pas immédiatement répondu à une demande de commentaire.