HomeTECNOLOGÍALa UE está observando a OpenAI por fallos en ChatGPT

La UE está observando a OpenAI por fallos en ChatGPT

La UE está observando a OpenAI por fallos en ChatGPT

La Unión Europea ha recibido una nueva queja por violar el Reglamento General de Protección de Datos debido a las respuestas inadecuadas de ChatGPT. Lo peor es que no tienen idea de cómo solucionar el problema.

OpenAI, la compañía responsable de ChatGPT, parece enfrentar un nuevo desafío con la Unión Europea, ya que su chatbot está difundiendo información errónea sobre ciertas personas, lo cual es una falla común en las herramientas de inteligencia artificial conocidas como alucinación.

En particular, se trata de una queja de privacidad presentada por noyb, una organización sin fines de lucro, en nombre de un denunciante anónimo que se identifica como una persona pública y que denuncia un incumplimiento del Reglamento General de Protección de Datos (RGPD).

 

Aunque Noyb dice que OpenAI no cumple con esta responsabilidad en ChatGPT, la empresa dice que es técnicamente imposible corregir los errores del chatbot.

Maartje de Graaf, abogado de protección de datos de noyb, comenta sobre la denuncia: “La fabricación de información falsa es una situación bastante problemática en sí misma”. Sin embargo, cuando se trata de información falsa sobre personas, puede haber repercusiones significativas. En la actualidad, las empresas no pueden usar chatbots como ChatGPT para cumplir con las leyes de la UE cuando procesan datos de personas. Si un sistema no puede generar datos sobre personas, no puede usarse para generar datos precisos y transparentes. La tecnología debe cumplir con las normas legales en lugar de al revés.

Parece que el principal problema de OpenAI radica en que ChatGPT no puede corregir correctamente la información errónea que genera sobre las personas. Aunque la empresa ha intentado solucionar esto creando métodos para filtrar o bloquear la información falsa, es difícil lograrlo al 100% debido a la complejidad del sistema.

Además, hay un problema adicional: no se sabe de dónde proviene toda la información que ChatGPT usa para responder preguntas. Por ejemplo, si un chatbot afirma que su fecha de nacimiento es errónea, es imposible que usted o ellos descubran de dónde obtuvieron esa información para corregirla.

La empresa que está detrás de esto enfrenta un gran problema al enfrentarse a quejas o denuncias a la Unión Europea, lo que la dejaría prácticamente atada. Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global, y aunque no sería un gran hándicap para ellos, sí que podrían venir de la mano de obligaciones para que cambien la herramienta, lo que desde luego sería palabras mayores.

Compartir con
Valora esta nota
Author

editor@kripton.mx

Sin comentarios

Dejar un comentario