Inteligencia Artificial

El Futuro de los Drones en la Inteligencia Artificial

Compártelo

Los drones no son más que un artilugio de ficción para la mayoría de nosotros. Son juguetes divertidos que pueden volar alrededor de un área, capturar tomas aéreas o incluso espiar a alguien. Estos vehículos aéreos no tripulados (UAV) están creciendo en popularidad rápidamente y se han planificado en diferentes escenarios que van más allá del uso de juguetes robóticos.

Los drones han redefinido y mejorado muchas industrias en solo un par de años. Son ampliamente utilizados para entregar productos rápidamente, escanear bases militares y estudiar el entorno en un ámbito más amplio. Los aviones no tripulados se han utilizado en inspecciones de seguridad, monitoreo de seguridad, seguimiento de tormentas y vigilancia de fronteras. También están armados con bombas y misiles en ataques militares y para proteger las vidas del personal del ejército que de otro modo necesitaría entrar en zonas de guerra.

Ahora, parece que cada compañía está ofreciendo drones con fines comerciales. Estos folletos controlados por control remoto tienen un gran potencial.

Ahora, aún controlados por humanos, los drones del futuro serán controlados por inteligencia artificial. AI permite que los drones y otras máquinas tomen decisiones y operen por su cuenta en su nombre. Pero una máquina capaz de tomar decisiones y aprender a trabajar de forma independiente podría causar más daños que beneficios y caer en la sociedad.

La inteligencia artificial es como un mundo desconocido en el que nos estamos sumergiendo de cabeza, y nuestra imaginación es nuestra única guía. Algunas de las mentes más brillantes del siglo pasado han imaginado lo que podría estar sucediendo hoy. ¿Podríamos ingresar al mundo donde un ejército de cyborgs (como en la serie Terminator) nos envía a un holocausto nuclear?

El riesgo de los robots autónomos es aún más importante que el de Isaac Asimov, un escritor estadounidense de ciencia ficción. Asimov publicó una serie de historias de 1940 a 1950 que muestran el futuro de los robots y los humanos.

Es en este sentido que nos presentan las Tres Leyes de la Robótica: un conjunto de reglas que dictan cómo la inteligencia artificial puede coexistir con el hombre armoniosamente.

Si no sabes, las Tres Leyes indican:

Un robot no debe lastimar a un ser humano ni permitir que un ser humano sea dañado por la inacción.
Un robot debe seguir los comandos dados por los humanos a menos que entren en conflicto con la primera ley.

Un robot debe protegerse a sí mismo a menos que esto entre en conflicto con la Primera o Segunda Ley.
Obviamente, estas Tres Leyes son parte de la ficción, pero Asimov nos introdujo a un concepto muy amenazante y real. ¿Cuándo puede una máquina trabajar de forma independiente, cuándo puede tomar decisiones y aprender de acuerdo con sus conocimientos avanzados, qué la controla de abrumar a una sociedad mortal?

A medida que la inteligencia artificial salta del trabajo de la ciencia ficción a la realidad, podemos enfrentar escenarios de la vida real donde esas leyes podrían funcionar. ¿Qué pasa si las armas militares robóticas se despliegan con la capacidad de matar a millones de una vez, lo que sucede cuando estos invasores autónomos evolucionan de una manera para pasar por alto los comandos de sus creadores? Mother Jones visitó el posible riesgo de los robots autónomos en 2013. Steve Goose, que es un vocero de Campaign to Stop Killer Robots, agregó:

“No se trata de escenarios que parecen un ejército de Terminators. Se verá como camiones blindados y bombarderos sigilosos “.

Aunque la tecnología está muy lejos de cómo se predijo en 2013, los drones y otras armas de IA se están acercando más pronto de lo esperado. El Pentágono emitió una directiva en 2012 que pedía establecer pautas para minimizar las consecuencias y la posibilidad de fallas en sistemas de armas semiautónomos y totalmente autónomos. Pero los aviones no tripulados no tripulados han sido desplegados alrededor de las fronteras en Corea del Sur. Varias figuras importantes en el mundo de la tecnología, incluso nombres populares como Elon Musk, han pedido la prohibición de las “máquinas asesinas” debido a tales desarrollos.

Más de 114 especialistas, incluidos Stephen Hawking y Elon Musk, agregaron:

“No tenemos mucho tiempo para actuar”. Una vez que esta caja de Pandora esté abierta, será demasiado difícil de cerrar “.

Con el lanzamiento reciente de Slaughterbots, el Future of Life Institute trajo el punto a casa con un terrorífico cortometraje de ciencia ficción que cubre lo que podría suceder en un mundo conquistado por máquinas de matar autónomas e incontroladas.

Stuart Russell, un investigador en AI en UC Berkeley y asesor científico de FLI, dice:

“También fui parte de la realización de esta película, ya que ha aclarado los problemas. Mientras que los abogados militares y los ministros del gobierno están estancados en la década de 1950, es decir, si las máquinas pueden ‘tomar decisiones a la manera humana’ o pueden ser completamente ‘autónomas’, la tecnología detrás de tales armas de destrucción masiva está avanzando. Hay distinciones filosóficas irrelevantes. El impacto catastrófico en la humanidad cuenta mucho “.

Situada en el contexto de un futuro cercano, la película muestra la introducción de drones accionados por IA que finalmente caen en manos equivocadas y se convierten en una herramienta para el asesinato, que apunta a miles de estudiantes universitarios y políticos. La película apoya la petición de una prohibición de asesinos autónomos por parte de FLI. Movimientos similares fueron atacados por la Convención de las Naciones Unidas sobre armas tradicionales, a la que asistieron invitados que representaban a más de 70 naciones.

¿Es demasiado tarde para detener la catástrofe robótica en el futuro cercano? La tecnología ya está disponible y Stuart advierte que podría traer apocalipsis si no actuamos ahora. La ventana para evitar ese tipo de destrucción global se acerca pronto, según él.

En el clímax de la película, Russell advierte que el cortometraje está más allá de la especulación. Muestra lo que puede suceder con la miniaturización e integración de tecnologías que ya tenemos. Existe un gran potencial en la IA para beneficiar a los humanos, incluso en defensa. Pero poner a estos asesinos en libertad para tomar decisiones para matar humanos destruirá nuestra libertad y nuestra sociedad, y miles de sus colegas científicos están de acuerdo.

Russell tiene razón de dos maneras diferentes, al menos. La tecnología ya está disponible. En la Universidad Carnegie Mellon, los roboticistas publicaron un trabajo de investigación titulado Learn to Fly by Crashing. Cubre las pruebas realizadas por los roboticistas en un AR Drone 2.0 que observaron para enseñar cómo navegar en 20 entornos interiores con prueba y error. El dron se destacó en su entorno aéreo con solo 40 horas de vuelo y 11,500 correcciones y colisiones.

Los investigadores agregaron:

“Hemos desarrollado un dron solo para chocar contra objetos. Junto con los datos positivos, implementamos todos los datos de vuelo negativos muestreados de trayectorias similares para aprender una política poderosa y fácil para llevar a cabo la navegación UAV “.

Russell fue perfecto en cuanto a los beneficios y el potencial de los drones AI. Recientemente, Intel ha utilizado la tecnología para recopilar videos y otra información sobre la vida silvestre de manera menos invasiva y más eficiente para ayudar a los científicos a realizar investigaciones.

El gerente general y vicepresidente de AI Product Group en Intel, Naveen Rao, dice:

“Se supone que AI debe ayudarnos a resolver la mayoría de los desafíos complejos promoviendo la resolución de problemas a gran escala, como descubrir un nuevo descubrimiento”.

Al mismo tiempo, Avitas Systems, una filial de GE, ha comenzado a implementar drones para automatizar inspecciones de infraestructura, como líneas eléctricas, tuberías y sistemas de transporte. Los drones AI realizan no solo la vigilancia de manera eficiente y segura, sino que su tecnología de aprendizaje automático también puede detectar anomalías en los datos.

BNSF Railway ha utilizado drones recientemente en las inspecciones. Pete Smith de TE Connectivity dijo en Aviation Today:

“Los drones pueden programar previamente para ir a través de las pistas cuando los siguen. Pueden recopilar datos con cámaras para tomar fotos de las pistas. Pueden tomar datos enormes con cámaras de alta resolución. Usan inteligencia artificial para realizar análisis de datos “.
¿Los drones AI son dañinos o útiles? Depende de nuestras decisiones. Hay muchos beneficios potenciales con los que contar si ingresamos en el mundo del aprendizaje automático sabiamente, pero existen ciertos riesgos de inacción.

No hace falta decir que varios científicos, incluso Hawking y Musk, piden la prohibición de asesinos autónomos de las Naciones Unidas. Se requiere una moratoria global para controlar el uso de AI para proteger a la humanidad de su propio descubrimiento.

Compártelo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *