Traducción de artículo publicado en Reuters por Foo Yun Chee
BRUSELAS, 5 jun (Reuters) – Las empresas que implementan herramientas de IA generativa como ChatGPT y Bard con el potencial de generar desinformación deberían etiquetar dicho contenido como parte de sus esfuerzos para combatir las noticias falsas, dijo el lunes la subdirectora de la Comisión Europea, Vera Jourova.
Presentado a finales del año pasado, ChatGPT de OpenAI respaldado por Microsoft se ha convertido en la aplicación de consumo de más rápido crecimiento en la historia y ha desencadenado una carrera entre las empresas de tecnología para llevar productos de IA generativa al mercado.
Sin embargo, aumentan las preocupaciones sobre el posible abuso de la tecnología y la posibilidad de que los malos actores e incluso los gobiernos puedan usarla para producir mucha más desinformación que antes.
«Los signatarios que integran IA generativa en sus servicios como Bingchat para Microsoft, Bard para Google deben incorporar las garantías necesarias para que estos servicios no puedan ser utilizados por actores maliciosos para generar desinformación», dijo Jourova en una conferencia de prensa.
«Los signatarios que tienen servicios con potencial para difundir desinformación generada por IA deberían, a su vez, implementar tecnología para reconocer dicho contenido y etiquetarlo claramente para los usuarios», dijo.
Las empresas como Google, Microsoft y Meta Platforms que se han suscrito al Código de prácticas de la UE para combatir la desinformación deben informar sobre las medidas de seguridad implementadas para abordar esto en julio, dijo Jourova.
Advirtió a Twitter, que abandonó el Código la semana pasada, que esperara un mayor escrutinio regulatorio.
«Al abandonar el Código, Twitter ha atraído mucha atención y sus acciones y el cumplimiento de la ley de la UE serán examinados enérgica y urgentemente», dijo Jourova.
Comments are closed