Exjefe de seguridad de Google alerta de los peligros de la IA y la generación de noticias falsas

Está movido el debate sobre Inteligencia Artificial estas semanas.

Arjun Narayan ha concedido una muy interesante entrevista a Gizmodo en la que ha expuesto los grandes peligros a los que el periodismo y la sociedad se enfrentan en la actualidad: todo debido al ‘boom’ de la IA y la generación de noticias falsas o ‘fake news’.

En distintos ejercicios ChatGPT y Bard han demostrado ser inexactas. Como herramientas complementarias son útiles, pero la base de datos a la que tienen acceso aún es muy limitada. Por ejemplo, si haces el ejercicio de preguntarle a Bard sobre “noticias recientes de Elon Musk”, para Bard el magnate aún no ha comprado Twitter.

El exjefe de departamento de seguridad de Google, Arjun Narayan, profundizó sobre el tema en una reciente entrevista con Gizmodo. Hablaron sobre la complejidad del momento actual, cómo las organizaciones de noticias deben abordar el contenido de IA de manera que pueda generar y nutrir la confianza de los lectores, y qué esperar en el futuro cercano.

“Es importante ser transparente para el usuario de que este contenido fue generado por IA”

“Uno de los grandes retos se centra en asegurarse de que los sistemas de IA se entrenen correctamente y se entrenen con la verdad básica correcta. Es extremadamente importante calibrar y curar cuidadosamente cualquier punto de datos que ingrese para entrenar el sistema de IA”, explica.

En pocas palabras, ChatGPT se basa en un modelo que responde en función de probabilidades. Por ejemplo, si le preguntas en qué día de la semana te encuentras, una respuesta que incluya de Lunes a Viernes es más probable que un día del mes, aunque esto no significa que responda correctamente con el día en el que te encuentras.

Teniendo esto en cuenta, en la explicación de un concepto que le solicitas a este chatbot este irá construyendo una respuesta, palabra por palabra, con probabilidades y, por lo tanto, esto puede dar a error. Si esto es usado para escribir noticias, hay un gran problema.

“Es importante comprender que puede ser difícil detectar qué historias están escritas completamente por IA y cuáles no, pero esa distinción se está desvaneciendo”, explica Narayan.

“Personalmente, creo que no hay nada de malo en que la IA genere un artículo, pero es importante ser transparente para el usuario de que este contenido fue generado por IA. Es importante para nosotros indicar, ya sea en una línea de autor o en una divulgación, que el contenido fue generado total o parcialmente por IA. Siempre y cuando cumpla con su estándar de calidad o estándar editorial, ¿por qué no?”, añade.

“Necesitamos más personas que estén pensando en estos pasos y que le den el espacio de cabeza dedicado para mitigar los riesgos. De lo contrario, la sociedad tal como la conocemos, el mundo libre tal como lo conocemos, correrá un riesgo considerable. Sinceramente, creo que debe haber más inversión en confianza y seguridad”, finaliza.

Lo Último