Los abogados de este despacho se han metido en un buen lío. Todo ha sido por la inteligencia artificial, y alguno podría ser despedido
El abogado utilizó ChatGPT para citar unos casos que no existen: son alucinaciones de la IA

La inteligencia artificial se ha vuelto imprescindible para muchas personas. A pesar de su "corta" vida, ya que ChatGPT, el bot conversacional más popular del mundo, fue lanzado al mercado a finales de 2022, se ha vuelto una herramienta extremadamente útil para diversas tareas: desde crear imágenes con distintos estilos hasta analizar datos, pasando por redactar o resumir textos, elaborar planes y "picar" código.
Cada vez más gente está convencida de que la inteligencia artificial sustituirá a las personas en todo tipo de empleos. Lo dicen hasta los magnates de Silicon Valley, que predicen que realizará el 80% del trabajo. No obstante, algunas pruebas piloto demuestran que, al menos de momento, los seres humanos no serán completamente reemplazados. Si no, que pregunten a los funcionarios australianos su opinión sobre Microsoft Copilot.
Lo mejor, de momento, es que no se confíe plenamente en la inteligencia artificial, ya que luego vienen las sorpresas y arrepentimientos. La supervisión humana sigue siendo imprescindible para evitar metidas de pata monumentales. Este bufete de abogados de Estados Unidos lo ha aprendido por las malas.
La historia de cómo la IA tiró por tierra la reputación de un bufete de abogados

En el sitio web oficial de Morgan & Morgan figura el perfil de Rudwin Ayala, el abogado que utilizó la IA de ChatGPT para citar casos que no existen
Morgan & Morgan es una de las firmas de abogados más destacadas de Estados Unidos. Es uno de los mejores en casos relacionados con lesiones personales, negligencias médicas y demandas colectivas. Con oficinas por todo el territorio, dando trabajo a más de mil abogados, tiene personal dedicado a ofrecer servicios legales en español, atendiendo así a la demanda que hay en ciudades como Miami.
Su nombre ha quedado manchado por culpa de la inteligencia artificial. Mejor dicho: por un mal uso. En una carta compartida en un expediente judicial, el director de transformación de Morgan & Morgan, Yath Ithayakumar, advirtió a sus más de mil abogados que citar casos falsos generados por IA en los expedientes judiciales podría ser motivo de medidas disciplinarias, incluido el "despido".
Este es un problema grave. La integridad de su trabjo legal y su reputación dependen de ello
El problema surgió en una demanda que afirmaba que Walmart, una de las cadenas de supermercados más grande del mundo, estaba involucrada en el diseño de un juguete hoverboard supuestamente defectuoso que, supuestamente, provocó el incendio de la casa de una familia. A pesar de su experiencia, Rudwin , el abogado principal de la firma en el caso, citó ocho casos en una presentación judicial que los abogados de Walmart no pudieron encontrar en ningún otro lugar, excepto ChatGPT.
Los abogados de Walmart comentaron que los "casos citados no existían en ningún otro lugar que no sea el mundo de la inteligencia artificial", instando al tribunal a considerar la posibilidad de imponer sanciones. Si bien el tribunal no se ha pronunciado al respecto, Ayala fue desplazado del caso inmediatamente y reemplazado por su supervisor directo, el abogado T. Michael Morgan, que expresó "gran vergüenza" por las citaciones falsas.
Morgan llegó a un acuerdo con los abogados de Walmart para pagar todos los honorarios y gastos asociados. El abogado dijo al tribunal que este caso debería servir como una "historia de advertencia" tanto para su firma como para "todas las firmas". Según Reuters, las alucinaciones de la IA han complicado los litigios en al menos siete casos en los últimos dos años.