martes, 14 de abril de 2015

La inteligencia artificial es una maravilla, pero…

Disparador.

Por Marcelo A. Moreno

El 1° de abril, por primera vez en la historia, un coche sin chofer, completamente automatizado, cubrió los 5.400 kilómetros que separan a Nueva York de San Francisco. La máquina sólo requirió ayuda humana en dos ocasiones: el 99% del trayecto lo realizó de manera autónoma. Ya son varias las empresas tecnológicas y automotrices que avanzan en busca del auto que se conduzca solo.

La abrumadora parte del vuelo de un avión con pasajeros la realiza el piloto automático. Los pilotos humanos, en vez de conducir, dedican su atención a supervisar que los sistemas de computación funcionen correctamente.

Desde mañana, y durante cinco días en Ginebra, docenas de expertos intentarán convencer a funcionarios de la ONU para que el organismo prohíba que el desarrollo de los llamados Sistemas de Armas Autónomas Letales llegue al punto en que la computadora sea la que tome la decisión de matar.

Porque la pesadilla de “Terminator”, es decir, la idea bizarra del robot asesino, ya es una realidad: unos cuantos países tienen la tecnología para producirlos. De allí que lo que se intente en esas reuniones sea detener esos desarrollos antes de que actúen.

La diferencia fundamental con otros sistemas automatizados, por ejemplo, los drones, es que los que se avecinan no están teledirigidos por una decisión humana. Y están cerca de funcionar porque también se conoce la eficacia de los vetos de la ONU. A través de la Convención de Ginebra, ha prohibido las armas químicas y biológicas desde 1928, lo que no impidió que fueran abundantemente utilizadas, incluso hasta en el actual conflicto sirio.

En un documento que presentarán en la reunión que empieza mañana, la organización Human Rights Wacht y la facultad de Derecho de la Universidad de Harvard advierten que “aunque estas armas autónomas no se dejen llevar por el miedo o la ira, también carecen de compasión, una salvaguarda clave para evitar matanzas de civiles.” El daño colateral no sería una preocupación en sistemas de inteligencia artificial que son incapaces de preocupación alguna.

Como asegura el estudioso norteamericano Nicholas Carr, la pasmosa sofisticación que han alcanzado las computadoras no quiere decir “que hayan empezado a pensar como nosotros. Ni lo han hecho, ni pueden hacerlo, ni lo harán. Las personas son conscientes, las computadoras son inconscientes.”

Si el arma autónoma llega a la conclusión de que una fuerza enemiga amenaza desde el interior de un colegio, probablemente decida hacer volar el colegio con todos los chicos adentro. De allí la deletérea amenaza de su sola existencia.

La inteligencia artificial está, definitiva, entre nosotros. Y en muchos casos, como el de la memoria, resulta muy superior a la humana. El desafío consiste ahora en que en su exitoso camino no nos termine haciéndonos pelota.

No hay comentarios: