Le preguntó a ChatGPT qué sabía de él, y le respondió que era célebre por matar a sus hijos
Un noruego presentó una denuncia tras descubrir que ChatGPT lo presentaba por error como un criminal que mató a dos de sus hijos.
“Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto”, declaró en un comunicado Arve Hjalmar Holmen, representado por la asociación austriaca Noyb, que milita a favor de la protección de la vida privada.
Desde ese incidente, el grupo estadounidense OpenAI, creador del chatbot ChatGPT, ha actualizado su modelo y ya no presenta a Arve Hjalmar Holmen como un asesino. Pero estos datos falsos pueden permanecer en los sistemas internos, deplora Noyb.
“ChatGPT da regularmente información falsa (…) que puede dañar gravemente la reputación de una persona, acusando falsamente a personas de corrupción, abuso de menores o incluso asesinato”, denunció Noyb en un comunicado.
“Al permitir a sabiendas que su modelo de IA cree resultados difamatorios, OpenAI viola el principio de exactitud” consagrado en el Reglamento General de Protección de Datos europeo (RGPD), añadió la ONG, que pide que se “eliminen” los elementos infractores, se mejore la tecnología y se imponga “una multa administrativa”.
La empresa estadounidense, figura de proa de la IA generativa, se hizo famosa al lanzar el chatbot ChatGPT a finales de 2022, pero en estos dos años ha cosechado muchas denuncias por la inclusión de información falsa o inventada, lo que en el ambiente de la IA generativa se conoce como alucinación, y por el impacto que puede tener en una sociedad que toma estas definiciones asertivas de la IA como verdades indiscutidas.
Con información de AFP
LA NACION
Los comentarios están cerrados.