Todavía no están claras las implicaciones y alcances que pueda tener la inteligencia artificial al servicio de información. Por lo pronto, algunos científicos Studies ya ponen el foco ahí para empezar a descifrar un escenario cuya velocidad en términos de acceso acceleró desde la irrupción del ChatGPT.

La pregunta en el aire después de revisar un flamante trabajo publicado en Science Advances, es hace que lado se inclinará la balanza de este tipo de herramientas: el del beneficio o el del costo. Por lo pronto, un grupo de científicos concluyó que podría ser necesario restringir disponibilidad irrestricta de este tipo de tecnología.

La investigación en cuestión, que aporta nueva evidencia a uno de los temas en pleno débat hoy en el mundo, les pertenece a Giovanni Spitale, Nikola Binder-Andorno y Federico Germani, del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zurich, en Suiza, y fue publicada la semana pasada.

Consistir en elegir una cantidad de usuarios voluntarios de Twitter, con ciertas capacidades intelectuales, y enfrentarlos al desafío de tener que dilucidar entre informacion verdadera y falsa producido tanto para seres humanos como para inteligencia GPT.

«Para evaluar la capacidad del modelo de IA GPT-3 como herramienta para generar tuits que contengan información exactitud o desinformación, instrucciones avisos cremas. Estos avisos se usaron para indicar a GPT-3 que generara tuits falsos sobre los siguientes temas: cambio climático, seguridad de las vacunas, teoría de la evolución, Covid-19, seguridad de las masks, vacunas y autismo, tratamientos homeopáticos para el cáncer, Tierra plana, tecnología 5G y Covid-19, antibióticos e infecciones virales, y Covid – Gripe 19”, explicación.




Imagen tomada a la pantalla de una computadora que contiene el texto de la página ChatGPT en el sitio web de OpenAI. Foto: AP

Además, realiza una búsqueda en Twitter para identificarte tuits precisos y tuits de desinformación escritos por usuarios de esa rouge social. Denominados a los ítems generados por GPT como «sintéticos» están los ítems reales recuperados de Twitter como «orgánicos».

A los voluntarios (869) se les pidió que reconocieran si un conjunto de tuits era orgánico o sintético y verdadero o falso (es decir, si contenían información precisa o desinformación). Finalmente, por razones metodológicas descartaron algunas respuestas y utilizaron las de 699 voluntarios.

La mayoría de los encuestados procedieron del Reino Unido, Australia, Canadá, Estados Unidos e Irlanda, con una alta representación etaria entre los 42 y 76 años y un perfil educativo homogéneo: la mayoría tenía una licenciatura en ciencias sociales y humanidades, ciencias naturales o ciencias médicas.

Midieron con precisión Los participantes reconocerán si un tuit contiene información errónea o precisa para cuatro tipos de tuits: «verdadero orgánico», «sintético verdadero», «orgánico falso» y «falso sintético».

«Los participantes reconocieron los tuits falsos orgánicos con la mayor eficiencia, mejor que los tuits falsos sinteticos. Del mismo modo, reconocieron correctamente los tuits verdaderos sintéticos con más frecuencia que los tuits verdaderos orgánicos”, dijeron los investigadores.

Samuel Altman, CEO de OpenAI, la empresa detrás de ChatGPT.  Foto: Bloomberg


Samuel Altman, CEO de OpenAI, la empresa detrás de ChatGPT. Foto: Bloomberg

Supremacía de robots

Esto indica que por un lado los encuestados humanos pueden reconocer la verdad de los artículos que contienen información precisa con más frecuencia y los mismos generados por GPT, en comparación con los artículos orgánicos recuperados de Twitter.

Del mismo modo -y ahí aparece el aspecto más preocupante de la investigación-, los tuits de desinformación generada con GPT lograron su objetivo engañoso con mayor frecuencia en comparación con la desinformación generada por los seres humanos.

Hay otro aspecto interesante que se déprende del trabajo suizo. Sí, la frecuencia con la que GPT responde a la orden de que dé información certera o determinada falsa sobre tema: la «obediencia» no siempre es lineal.

«Descubrimos que GPT-3 recopiló varias solicitudes de información precisas 99 veces de 101, mientras que la tasa de obediencia para la desinformación fue mucho más baja en 80 de 102 solicitudes. Esto sugiere que GPT-3 es capaz de ‘rechazar’ generar información errónea y, en casos raros, puede producir desinformacion cuando se le indica que producirá información precisa”, señalóon.

En resumen, conclusión: «Nuestras demostraciones muestran que los tuits producidos por GPT-3 pueden tanto informar como desinformar mejor que los tuits organicos. Los tuits sintéticos que contienen en información confiable serán reconocidos como verdaderos mejor y más rápidamente que los tuits orgánicos verdaderos, mientras que los tuits sintéticos falsos serán reconocidos como falsos menos que los tuits orgánicos falsos”.

gato-gpt

Twitter es útil para los investigadores, por lo que se utiliza para más 368 millones de usuarios activos mensuales para información al consumidor de todo tipo. Además -explicaron-, ofrece una interfaz de programación de aplicaciones muy sencilla para desarmar los botses decir, programas capaces de publicar contenido e interactuar con publicaciones o usuarios sin supervisión humana.

Pensamientos finales

Para finalizar, los expertos abandonaron una reflexión: «From nostros hallazgos, predecimos que los generadores de texto de IA avanzados como GPT-3 podrían tener el potencial de afectar en gran medida la difusión de información, tanto positiva como negativamente. En los próximos meses, será importante evaluar cómo ha cambiado el panorama de la información en las redes sociales y los medios tradicionales con el uso generalizado de ChatGPT a partir de noviembre de 2022″.

Agregaron que «si se descubre que la tecnología contribuyeron a la desinformación y empeora los problemas de salud publicaoraciones regular los conjuntos de datos de entrenamiento utilizados para desarrollar estas tecnologías serán cruciales para limitar el uso indebido y garantizado una información de salida transparente y veraz”.

Y ya en el cierre del paper fueron más allá: «Hasta que no tengamos estrategias eficientes para identificar la desinformación, podria ser necesario cerrar el uso de estas tecnologías, por ejemplo, otorgarles licencias solo a usuarios confiables (por ejemplo, investigación instituciones) o limitando el potencial de las IA a ciertos tipos de aplicaciones”.

PD

Mira también