La Opinión
Suscríbete
Elecciones 2023 Elecciones 2023 mobile
Tecnología
Primeras reglas para limitar riesgos de la IA
Hacer más seguro el uso de la inteligencia artificial es uno de los retos más grandes actualmente.
Image
AFP
AFP
Domingo, 10 de Diciembre de 2023

Los negociadores del Parlamento Europeo y del Consejo (gobiernos) han logrado este viernes, tras más de 35 horas de negociación, cerrar un acuerdo histórico para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA).

“¡Acuerdo!”, ha escrito en las redes sociales el comisario de Industria y Servicios Digitales, el liberal francés Thierry Breton, junto a un gráfico para destacar que la Unión Europea es la única región del mundo con una regulación.

Los negociadores del Parlamento Europeo y del Consejo iniciaron el miércoles la que estaba llamada a ser la última ronda de negociación para un acuerdo que finalmente no ha llegado hasta última hora del viernes, tras superar los últimos escollos respecto a la vigilancia biométrica y el uso por parte de las fuerzas de seguridad.


Lea aquí: Enfoque territorial y paz: protagonistas en encuentro de migración


Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación, por lo que este capítulo se ha ido desarrollando en el curso de la negociación.

El objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios; pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea.


El desafío de la IA

Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea. 

Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT. Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales. 

Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales. 


Le puede interesar: Andrea Quiñonez, la tejedora que llevó los hilos a las paredes de Norte de Santander


“Irónicamente, la gran cantidad de prensa sobre mi historia corrigió los registros”, relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia. 

La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema. 
“La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro”, señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia. 

En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA. 

En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el “desaprendizaje automático”, que trata de entrenar algoritmos para que “olviden” datos que sean problemáticos.

 

“Una herramienta interesante”

Entre quienes se apuntaron a este desafío está Google DeepMind, la división de IA del gigante californiano.

Los expertos de Google redactaron junto a Kurmanji un artículo publicado el mes pasado en el que proponen un algoritmo para depurar los datos seleccionados de las bases que componen los algoritmos en los que se basan ChatGPT y el chatbot Bard de Google, empresa que lanzó una competencia en junio para medir distintos métodos para “desaprender”, que hasta ahora atrajo a más de 1.000 participantes.

Kurmanji afirma que “desaprender” puede ser una “herramienta muy interesante” para que los motores de búsqueda administren las peticiones para eliminar contenido, por ejemplo, debido a asuntos relacionados con las leyes sobre la privacidad.

Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en https://bit.ly/SuscripcionesLaOpinion

Temas del Día