Un científico informático argumenta que la búsqueda de robots totalmente automatizados es errónea, incluso peligrosa. Sus décadas de advertencias están ganando más atención.
El jefe de Tesla, Elon Musk, y otros ejecutivos de renombre de Silicon Valley han prometido por mucho tiempo un automóvil que pueda conducir sin ayuda humana .
Pero Ben Shneiderman, un científico informático de la Universidad de Maryland que durante décadas advirtió contra la automatización ciega de tareas con computadoras, cree que los automóviles totalmente automatizados y la visión de la industria tecnológica para un futuro robótico es errónea. Incluso peligrosa . Los robots deberían colaborar con los humanos, cree, en lugar de reemplazarlos.
A fines del año pasado, el Dr. Shneiderman se embarcó en una cruzada para convencer al mundo de la inteligencia artificial de que se dirige en la dirección equivocada. En febrero, se enfrentó a los organizadores de una conferencia de la industria sobre «Autonomía asegurada» en Phoenix, diciéndoles que incluso el título de su conferencia estaba equivocado. En lugar de tratar de crear robots autónomos, dijo, los diseñadores deberían centrarse en un nuevo mantra, diseñando máquinas computarizadas que sean » seguras y confiables».
Debería haber el equivalente de un registrador de datos de vuelo para cada robot, argumentó el Dr. Shneiderman. Es una advertencia que probablemente ganará más urgencia cuando las economías mundiales eventualmente emerjan de la devastación de la pandemia de coronavirus y millones de personas que han perdido sus trabajos intenten volver a trabajar. Un número creciente de ellos descubrirá que están compitiendo o trabajando codo a codo con máquinas .
El Dr. Shneiderman, de 72 años, comenzó a difundir su mensaje hace décadas. Pionero en el campo de la interacción humano-computadora, cofundó en 1982 lo que ahora es la Conferencia sobre Factores Humanos en Sistemas de Computación y acuñó el término «manipulación directa» para describir la forma en que los objetos se mueven en la pantalla de una computadora con un mouse o, más recientemente, con un dedo.
En 1997, el Dr. Shneiderman participó en un debate profético con Pattie Maes, una científica informática en el Laboratorio de Medios del Instituto de Tecnología de Massachusetts, sobre la idea de moda de los agentes de software inteligentes diseñados para realizar tareas autónomas para los usuarios de computadoras, desde reordenar alimentos. a hacer una reserva de restaurante.
«Los diseñadores creen que están creando algo realista e inteligente; sin embargo, los usuarios se sienten ansiosos e incapaces de controlar estos sistemas», argumentó. Desde entonces, el Dr. Shneiderman ha argumentado que los diseñadores corren el riesgo no solo de crear máquinas inseguras sino de absolver a los humanos de la responsabilidad ética de las acciones tomadas por los sistemas autónomos, que van desde automóviles hasta armas.
El conflicto entre el control humano y el de la computadora es al menos tan antiguo como la computación interactiva.
La distinción apareció por primera vez en dos laboratorios de informática que se crearon en 1962 cerca de la Universidad de Stanford. John McCarthy, un científico informático que había acuñado el término «inteligencia artificial», estableció el Laboratorio de Inteligencia Artificial de Stanford con el objetivo de crear una «máquina de pensar» en una década. Y Douglas Engelbart , quien inventó el mouse de la computadora, creó el Centro de Investigación de Aumento en el Centro de Investigación de Stanford y acuñó el término «aumento de inteligencia», o IA
En los últimos años, la industria informática y los investigadores académicos han intentado volver a unir los dos campos, describiendo la disciplina resultante como inteligencia artificial «humanista» o «centrada en el ser humano».
El Dr. Shneiderman ha desafiado a la comunidad de ingenieros a repensar la forma en que aborda la automatización basada en inteligencia artificial. Hasta ahora, la autonomía de la máquina se ha descrito como una escala unidimensional que abarca desde máquinas que se controlan manualmente hasta sistemas que funcionan sin intervención humana.
El más conocido de estos modelos unidimensionales es un conjunto de definiciones relacionadas con vehículos autónomos establecidos por la Sociedad de Ingenieros Automotrices. Describe seis niveles de autonomía del vehículo que van desde el Nivel 0, que requiere un control humano completo, hasta el Nivel 5, que es la automatización de conducción completa.
En contraste, el Dr. Shneiderman ha esbozado una alternativa bidimensional que permite altos niveles de automatización de máquinas y control humano. Con ciertas excepciones, como las bolsas de aire de los automóviles y las barras de control de la planta de energía nuclear, afirma que el objetivo de los diseñadores de computación debe ser sistemas en los que la computación se use para extender las capacidades de los usuarios humanos.
Este enfoque ya ha sido popularizado tanto por los robotistas como por los funcionarios del Pentágono. Gill Pratt, director del Instituto de Investigación Toyota , es un defensor desde hace mucho tiempo de mantener a los humanos «informados». Su instituto ha estado trabajando para desarrollar Guardian, un sistema que los investigadores han descrito como «asistencia al conductor súper avanzada».
«Hay tanto que la automatización puede hacer para ayudar a las personas que no se trata de reemplazarlos», dijo el Dr. Pratt. Ha centrado el laboratorio no solo en la seguridad del automóvil, sino también en el desafío de desarrollar tecnología robótica diseñada para apoyar también a los conductores mayores.
Del mismo modo, Robert O. Work, subsecretario de defensa de los presidentes Trump y Barack Obama, respaldó la idea de los llamados sistemas de armas de centauro , que requerirían control humano, en lugar de robots asesinos basados en IA, ahora llamados armas letales autónomas.
El término «centauro» se popularizó originalmente en el mundo del ajedrez, donde las asociaciones de humanos y programas informáticos derrotaron constantemente al software no asistido.
En la conferencia de Phoenix sobre sistemas autónomos este año, el Dr. Shneiderman dijo que el sistema de control de vuelo MCAS de Boeing, que fue culpado después de que dos aviones 737 Max se estrellaran, fue un ejemplo extremo de alta automatización y bajo control humano.
«Los diseñadores creían que su sistema autónomo no podía fallar», escribió en un artículo inédito que ha circulado ampliamente. «Por lo tanto, su existencia no se describió en el manual del usuario y los pilotos no fueron entrenados en cómo cambiar a anulación manual».
El Dr. Shneiderman dijo en una entrevista que había asistido a la conferencia con la intención de persuadir a los organizadores de cambiar su nombre de un enfoque en la autonomía a un enfoque en el control humano. «He llegado a ver que los nombres y las metáforas son muy importantes», dijo.
También citó ejemplos en los que la Fuerza Aérea, la Administración Nacional de Aeronáutica y del Espacio y la Junta de Ciencia de la Defensa, un comité de expertos civiles que asesora al Departamento de Defensa en ciencia y tecnología, se habían alejado de la dependencia de los sistemas autónomos.
Robin Murphy, científica en computación y especialista en robótica de la Universidad de Texas A&M, dijo que había hablado con el Dr. Shneiderman y que estuvo de acuerdo en general con su argumento.
«Creo que hay algunas imperfecciones, y he hablado con Ben sobre esto, pero no sé nada mejor», dijo. «Tenemos que pensar en formas de representar mejor cómo los humanos y las computadoras están comprometidos». También hay escépticos.
«La noción de Ben de que su modelo bidimensional es una nueva perspectiva simplemente no es cierta», dijo Missy Cummings, directora del Laboratorio de Autonomía y Humanos de la Universidad de Duke, quien dijo que confiaba en sus ideas de interfaz humana en sus clases de diseño.
«El grado de colaboración debe ser impulsado por la cantidad de incertidumbre en el sistema y la criticidad de los resultados», dijo. «Los reactores nucleares están altamente automatizados por una razón: los humanos a menudo no tienen tiempos de reacción lo suficientemente rápidos como para empujar las varillas si el reactor se vuelve crítico».
Artículo publicado en el New York Times
No responses yet