Por: Ana Maclamp
La inteligencia artificial necesita ser regulada. El asunto es clave para el futuro, pero tiene mucho desafíos. ¿Qué tipo de regulación se debe promover para no limitarla pero tampoco dejarla sin control ni vigilancia?
Aunque se necesita una nueva regulación, «se requiere un enfoque cauteloso que podría no tener controles significativos sobre la inteligencia artificial», dijo Pichai, quien el mes pasado asumió el cargo de CEO de Alphabet, la empresa matriz de Google, en un artículo para el Financial Times.
Tanto Brad Smith (Microsoft) como Elon Musk (Tesla) coincidieron que este tema es demasiado importante como para mantenerlo sin regulación. El desafío pasa por incentivarlo pero cuidando las consecuencias que esto traerá.
«Las compañías como la nuestra no pueden simplemente construir una nueva tecnología prometedora y dejar que las fuerzas del mercado decidan cómo se utilizará. Es igualmente importante para nosotros asegurarnos de que la tecnología se aproveche para el bien y esté disponible para todos», escribió Pichai.
El momento de la reflexión de este asunto coincide con un gran impulso de Google para revelar algunos de los resultados de su propio trabajo en IA y traer herramientas que ha desarrollado en el mundo. El CEO de Alphabet enfatizó que «la alineación internacional será crítica para que los estándares globales funcionen» en IA.
Sus comentarios se producen mientras los legisladores y los gobiernos de todo el mundo están considerando limitar el uso de la IA en campos como el sistema de reconocimiento facial, un tema cercano al corazón del presidente de Microsoft, Brad Smith, que a menudo critica la tecnología, instando a los gobiernos a promulgar legislación sobre la tecnología.
«A menos que actuemos, nosotros se corre el riesgo de despertarse dentro de cinco años para descubrir que los servicios de reconocimiento facial se han extendido de manera que exacerban los problemas sociales «, dijo Smith.
La IA avanzada que está más allá de los bots de chat pronto se usará para manipular plataformas de redes sociales como Facebook, Twitter o Instagram, advirtió recientemente el CEO de Tesla, Elon Musk.
En su famoso debate con el ex presidente de Alibaba, Jack Ma, Musk entró en una discusión clásica sobre las capacidades de las tecnologías emergentes como la IA. Musk dijo que las computadoras algún día superarán a los humanos en «todos los sentidos». Él ha predicho que una sola compañía que desarrolle una «súper inteligencia divina» podría lograr la dominación mundial. Si no se regula o controla pronto, la IA podría convertirse en un dictador inmortal y no habrá escapatoria para los humanos, advirtió el CEO de SpaceX.
Para Moisés Barrio, analista regulatorio, por ejemplo, «no está del todo claro quién debe ser considerado responsable si la IA causa daños (por ejemplo, en un accidente con un coche autónomo o por una incorrecta aplicación de un algoritmo): el diseñador original, el fabricante, el propietario, el usuario o incluso la propia IA». También se discute si debe reconocerse una personalidad electrónica autónoma para los sistemas más avanzados, que les atribuya directamente derechos y obligaciones.
Igualmente se plantean dilemas morales acerca de cómo la IA debe tomar determinadas decisiones importantes, e incluso si existirían decisiones en las que no debería tener la última palabra. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusión. La falta de regulación, para este analista regulatorio, también aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira pública.
Noticia traducida y tomada sobre la base del enlace de The Economic Times
No responses yet