OpenAI ha desarrollado una herramienta para verificar la autenticidad de un texto generado por ChatGPT. Sin embargo, la organización ha decidido no hacerla pública en aras de preservar su base de usuarios
Existe una herramienta que puede identificar con un nivel de certeza del 99% si se está utilizando ChatGPT, la inteligencia artificial desarrollada por OpenAI. No obstante, la compañía aún no ha tomado la decisión de lanzarla, ya que se encuentra en medio de un análisis interno sobre las implicaciones en diferentes áreas, entre ellas, la potencial disminución de la cantidad de usuarios que emplean su servicio.
Según el informe del periódico The Wall Street Journal, se ha informado que la duración del desarrollo de este proyecto es de alrededor de dos años. Se presenta una herramienta diferente a su predecesora, la cual posibilitaba la detección de inteligencia artificial con una precisión reducida.
La nueva herramienta utiliza un método de marca de agua en el texto, el cual posibilita la identificación de contenido producido de manera exclusiva por esta inteligencia artificial. De acuerdo con TechCrunch, la empresa ha optado por adoptar un “enfoque deliberado” en relación con su lanzamiento, debido a las complejidades implicadas y su potencial impacto extendido más allá de OpenAI.
Según un representante de la compañía, este enfoque ha sido considerado como “prometedor desde el punto de vista técnico”, sin embargo, presenta riesgos significativos, como la posibilidad de ser evadido por individuos malintencionados y su potencial impacto en comunidades no angloparlantes.
El informe de The Wall Street Journal menciona que la nueva herramienta operaría a través de ajustes sutiles en la elección de palabras por parte de ChatGPT, aunque no se han proporcionado detalles concretos sobre su funcionamiento. Este proceso daría lugar a la creación de una marca de agua que no sería visible para los usuarios, pero que sería detectable a través de una herramienta especializada.
En una publicación acerca de la detección de contenidos generados por inteligencia artificial, OpenAI señala que la técnica de marca de agua ha sido comprobada como “altamente precisa” y eficaz en la prevención de manipulaciones específicas, como la paráfrasis.
No obstante, la empresa reconoce que esta estrategia no es tan resistente ante posibles manipulaciones a nivel global, tales como la utilización de sistemas de traducción, la reformulación mediante otros modelos generativos, o la solicitud a la inteligencia artificial de insertar y luego suprimir un carácter especial entre cada palabra.
OpenAI sostiene que su método es fácilmente eludible por individuos con malas intenciones, y advierte que el empleo de esta tecnología podría generar estigmatización hacia los usuarios no nativos de la lengua inglesa que hacen uso de la inteligencia artificial para la escritura.
En enero de 2023, la organización OpenAI presentó una herramienta con la finalidad de facilitar la identificación de la autoría de un texto generado por inteligencia artificial, especialmente en entornos educativos.
La herramienta denominada Clasificador de Texto de IA tenía como objetivo distinguir entre el contenido creado por seres humanos y el generado por inteligencias artificiales. No obstante, no era posible catalogarla como una evidencia concluyente de su procedencia.
En el pasado, se señaló que esta herramienta mostraba restricciones, como la capacidad de etiquetar contenido en español como posiblemente creado por inteligencia artificial. La empresa optó por clausurarla unos meses más tarde a causa de la “escasa precisión en los datos obtenidos”.