Los científicos debaten si hay que poner fronteras a la creación de vida artificial - La inteligencia sintética ocupa cada vez más espacios cotidianos.
elpais.com JAVIER SAMPEDRO
Si la madurez de una tecnología es proporcional a las suspicacias que levanta, la inteligencia artificial sólo va 35 años por detrás de la ingeniería genética. La élite de la biología mundial se reunió en 1975 en Asilomar, en la bahía californiana de Monterey, para acordar un estándar de seguridad en el entonces incipiente sector del diseño de genes y organismos vivos. Casi 35 años después, la crema de la inteligencia artificial, un sector de las ciencias de la computación particularmente dinámico, ha creído necesario repetir aquella conferencia histórica. Y no es casual que haya sido otra vez en Asilomar.
¿Debe limitarse la investigación en inteligencia artificial?
ENCUESTA - 1392 - Resultados
La noticia en otros webs
Una máquina que pueda interpretar las emociones podrá simularlas
Los expertos repiten la discusión sobre genética de hace 35 años
Los robots no sólo harán la guerra, acompañarán a los seres humanos
Los virus informáticos se acercan al punto de ser indestructibles
Científicos británicos han creado un androide capaz de pensar
Pronto estarán listos aviones que decidan si matan por su cuenta
Los científicos de la computación acaban de discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Algunos están preocupados porque puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como lospredator drones, o zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas, hacen experimentos científicos, formulan hipótesis o rastrean un territorio como las abejas. Y para qué hablar de los virus informáticos: eso sí que es puro Asilomar.
La conferencia tuvo lugar el pasado 25 de febrero, fue organizada por la Asociación para el Avance de la Inteligencia Artificial
(http://www.aaai.org/AITopics/pmwiki/pmwiki.php/AITopics/Ethics), y sus actas
se publicarán en los próximos meses (http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm). Su contenido ha trascendido ahora por un artículo del especialista John Markoff en The New York Times.
"Los científicos apuntaron a tecnologías muy diversas", escribe Markoff en el diario neoyorkino, "como los sistemas médicos experimentales que simulan empatía al interactuar con los pacientes, o los virus y gusanos informáticos que se hacen resistentes al exterminio, y por tanto han alcanzado lo que podría llamarse la fase cucaracha [así llamada porque se supone que esos insectos sobrevivirían incluso a un holocausto nuclear] de la inteligencia artificial". Markoff es uno de los mejores escritores del mundo sobre ciencias de la computación.
También se discutió en la conferencia sobre la posibilidad de que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral. Los robots ya no sólo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales -o que al menos se han visto así hasta ahora-, como la experimentación genética.
Los científicos descartaron riesgos como el Big Brother de George Orwell, la superinteligencia centralizada capaz de domeñar a la raza humana. Parecen pensar que1984 es un futuro pasado de moda. Tampoco creen que la inteligencia, con o sin súper, pueda emerger espontáneamente de una red como Internet. "Pero sí coincidieron en que los robots que pueden matar de forma autónoma están ya aquí o lo estarán pronto", escribe Markoff.
Otro punto de discusión fueron los robots de compañía, como los que está desarrollando la científica española Lola Cañamero en la Universidad de Hertfordshire. Los especialistas no dudan de que estos robots puedan adaptarse a vivir entre personas. Lo que se preguntan es si es adecuado "forzar" a las personas a adaptarse a vivir entre ellos.
Los ordenadores ya igualan a los grandes maestros de ajedrez, pero las tareas que los humanos hacemos sin esfuerzo consciente -como aprovechar un pequeño tropiezo con la alfombra para sentarnos en el único hueco libre del sofá- han resultado hasta ahora imposibles de programar.
La próxima generación de robots no se dedicará a hacer la guerra, sino a acompañar a los solitarios, cuidar a los mayores, entretener a los niños y echar una mano en casa. Y ello implica una avanzada ciencia de la computación que sepa leer e interpretar las emociones humanas, y que permita al robot ir aprendiendo a convivir con las rarezas de su maestro.
El proyecto europeo más avanzado en este sector es Feelix Growing, financiado con 2,5 millones de euros por el programa de robótica avanzada de la Comisión Europea. En él, 25 expertos en robótica, psicólogos y neurocientíficos de seis países colaboran para desarrollar robots "que interactúen con los humanos en su entorno cotidiano y de una forma fértil, flexible y autónoma". Sus primeras tareas serán la compañía, la dispensación de cuidados, el entretenimiento y la monitorización de pacientes. Éste es el proyecto que dirige Cañamero.
"Para que los robots puedan vivir con la gente, tienen que crecer con los humanos y aprender a interpretar sus emociones", ha explicado Cañamero. "Esto implica varias estrategias que investigamos en paralelo, como equipar a los robots con el equivalente de un sistema de placer y dolor que priorice sus estímulos, permitirles aprender comportamientos sociales, como la distancia que deben guardar a cada persona".
La pena, la felicidad, el asco, el miedo, el amor, el odio y la sorpresa no sólo son universales en las culturas humanas, sino que hunden sus raíces en el pasado remoto de la especie. Sus signos externos son numerosos y reconocibles entre culturas. Y por tanto también lo pueden ser para un robot.
Los humanos expresamos muchas emociones con unos signos externos universales e inconscientes. De forma apropiada en estas fechas, fue Darwin quien propuso que gestos como "encogerse de hombros en señal de impotencia, o alzar las manos abiertas en signo de asombro" son producto de la evolución, en su libro de 1872 La expresión de las emociones en el hombre y los animales. Este libro es menos conocido que El origen de las especies, pero probablemente es el fundamento de las modernas ciencias cognitivas. La psicología experimental contemporánea ha dado la razón a Darwin por goleada.
Una máquina que pueda interpretar las emociones humanas también podrá simularlas. ¿O la palabra es sentirlas? Según el test de Turing, tendremos que considerar inteligente a un ordenador cuando lo parezca. ¿No deberemos también considerarle sensible cuando lo parezca?
"Es posible que los robots lleguen a aprobar una especie de test de Turing emocional,pero lo harán con trampas, no porque sientan emociones reales", afirma Cañamero. "La tendencia en el campo, de hecho, es a pensar que tampoco el otro test de Turing, el original, será una prueba válida de la inteligencia de un ordenador".
Isaac Asimov imaginó en sus novelas tres leyes que deberían estamparse en los circuitos de cualquier robot: no pegar a los humanos, obedecerles salvo conflicto con lo anterior y autoprotegerse salvo conflicto con todo lo anterior. ¿Hay algo de esto en la robótica de la vida real?
"Las dos primeras no tienen mucho sentido con los prototipos actuales", responde la científica. "Hay filósofos, sin embargo, que ya se plantean cuestiones de este tipo. Y sí que hay algo de la tercera ley; un robot debe autoprotegerse para funcionar de forma autónoma". El término ciencia-ficción se queda francamente corto en algunos casos.
Ross King y Stephen Oliver, de las universidades británicas de Gales y Manchester, han inventado un robot que promete liberar al Homo sapiens del más desagradecido de todos sus trabajos forzados: el de pensar.
El autómata de King y Oliver formula hipótesis, diseña experimentos para evaluarlas, los hace sin demora, interpreta los resultados, ajusta sus teorías de acuerdo a ellos y repite el ciclo. La eficacia del robot es similar a la del mejor de nueve licenciados humanos en biología y ciencias de la computación que han hecho la misma investigación en paralelo. Y, por mucha electricidad que gaste, ni roza la cuantía escandalosa de las becas de investigación predoctorales.
Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación. Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).
King y Oliver suministraron al robot los reactivos, las 25 levaduras mutantes y unos conocimientos básicos sobre el metabolismo de ese organismo, y le pidieron que descubriera la función de los 25 genes. Y así lo hizo el robot, en efecto. Los dos científicos afirman que su intención no es condenar al paro a los científicos, sino liberarlos de ciertas tareas intelectuales para que puedan concentrarse en "los avances creativos de alto nivel". Suena bien.
"Si un robot puede hacer algo que sería considerado creativo en caso de haberlo hecho un humano, yo consideraría creativo al robot", ha explicado King. "Creo que los ordenadores ya han resuelto creativamente problemas de ajedrez y de matemáticas. La cuestión abierta es hasta qué punto eso mismo se puede extender a otros campos del conocimiento".
La postura de King recuerda al ya mencionado test de Turing, que propone que un ordenador deberá ser considerado inteligente cuando logre engañar a un humano para hacerle creer (en una prueba a ciegas) que también él es un ser humano. Ése hubiera sido probablemente el caso de Gari Kaspárov si no hubiera sabido que estaba jugando contra el ordenador Deep Blue.
¿No estará pensando King en construir un robot periodista? "No, pero sí estoy interesado en un robot crítico de arte". Eso ya no suena tan bien.
Los robots actuales no sólo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, una tarea que había resultado especialmente difícil de programar hasta hace poco: las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Pero el problema ha sido resuelto por un algoritmo de Massimo Vergassola, del Instituto Pasteur en París, y Boris Schraiman, de la Universidad de California en Santa Barbara. Se llama infotaxis.
Vergassola y Shraiman niegan haber plagiado a los insectos -su algoritmo es más bien el resultado de una reflexión sobre cualquier sistema de rastreo real o virtual-, pero el caso es que las trayectorias de su rastreador artificial recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.
La palabra robot viene del checo robota, que significa trabajo. Desde que Tesibio de Alejandría inventó una clepsidra automática en el siglo III antes de Cristo, eludiendo así la penalidad de tener que dar la vuelta al reloj de arena cada diez minutos, la robótica ha avanzado con paso firme para liberar a la humanidad de las servidumbres que le impone su existencia terrenal. Los científicos no quieren renunciar a la inteligencia artificial. Sólo intentan que ella misma no se convierta en una nueva servidumbre.
La amenaza de un futuro autómata
Desde predicciones ya superadas a posibilidades cada vez más reales, la relación del ser humano con las máquinas está marcada por temores y promesas.
- 'Gran hermano'. En 1949, George Orwell publicó 1984. En la novela, una súperinteligencia (el Big Brother) lo controla todo. La pesadilla no se ha cumplido más que parcialmente.
- Internet. La Red ha demostrado su capacidad para resolver problemas. Lo siguiente será que se retroalimente, aprenda de los errores y tome decisiones, creando una especie de gran conciencia mundial.
- Armas autónomas. Ya hay aviones sin piloto. Pero la decisión de qué hacer la toman las personas. ¿Y si ellos mismos deciden por su cuenta que un convoy o un campamento es un enemigo y debe ser atacado? Es lo que hacen los predator drones (zánganos predadores).
- Cibermédicos. Diagnosticar no es sólo usar cifras. ¿Quién confía sus miedos y dolores a una máquina? Hace falta que los programas muestren empatía, animen a los pacientes a abrirse a ellos. En ello se está trabajando.
- Virus informáticos. Todavía pueden destruirse. ¿Qué pasaría si adquieren propiedades para regenerarse o sobrevivir al ataque más eficaz? Que no serían gusanos, sinocucarachas, capaces de resistir un ataque nuclear.
- Trabajadores. Cada vez hay más funciones laborales que pueden hacer las máquinas. Menos decidir.
- Ayuda doméstica. Es el siguiente paso: robots que hagan compañía a mayores y niños, los cuiden y ayuden con las tareas de la casa.
- Investigadores. Máquinas que hacen experimentos, revisan los resultados y replantean las fórmulas iniciales. Bastaría con darles una idea y los materiales para trabajar. Ya se están ensayando. No se cansan y no se equivocan. Aunque tampoco tienen intuiciones.
No hay comentarios:
Publicar un comentario