Declaraciones de Stephen Hawking sobre que los robots podrían destruir al hombre desataron polémica.
El sometimiento de los humanos ante una tropa de robots que gobiernan el mundo no ha dejado de ser una preocupación, alimentada por los avances de la tecnología y surgida por la ciencia ficción de películas y libros, una exitosa fórmula que desborda taquillas y agota ejemplares. Pero, ¿qué tan posible es que esto suceda?
La inteligencia artificial tiene el papel protagónico. Este concepto, acuñado por el estadounidense John McCarthy, se basa en la creación de más y mejores dispositivos o procesos que faciliten la vida humana, y que reemplacen tareas que hacemos a diario.
Es un hecho que los desarrollos científicos y tecnológicos de hoy son de mayor alcance y se logran a un ritmo acelerado. Hace medio siglo no pensábamos que habría equipos de comunicación móvil que inundarían el mundo para acercarnos ni que se crearía un universo digital de información disponible a un clic. Menos, que las operaciones bursátiles las realizaría una máquina, autónoma en sus decisiones, por medio de algoritmos a una velocidad que los elegantes y estresados funcionarios que están ‘pegados’ al teléfono y a una fila de pantallas de computador, jamás lograrían. Estos son solo algunos ejemplos de inteligencia artificial.
Aunque no es nueva la inquietud por esa construcción vertiginosa de sistemas de inteligencia no humana, volvió a sonar esta semana por una de esas frases que dejó escapar el reconocido científico británico Stephen Hawking en entrevista con BBC, y que se convirtió en titular de prensa global: “La inteligencia artificial (IA) podría traducirse en el fin de la raza humana”.
El físico dijo que una vez que los humanos desarrollen completamente la inteligencia artificial, esta podría progresar por sí misma y rediseñarse a un ritmo cada vez mayor. “Los seres humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían sustituidos”, añadió.
Su posición la comparte un sector de la sociedad científica, que alerta por el peligro que representan nuestras propias creaciones. Otra considera que ese escenario catastrófico no va a darse.
Para el Ph. D. José Luis Cordeiro, profesor y asesor de la Universidad de la Singularidad en temas energéticos, Hawking está equivocado. Cordeiro, ingeniero mecánico venezolano, vinculado también con el Millennium Project, iniciativa que trabajamos con visión a largo plazo de la humanidad, defiende el buen uso que se le está dando a la inteligencia artificial.
“La inteligencia artificial se va a masificar y vamos a poder hacer cosas que antes ni siquiera pensábamos. Se trata de un complemento para los humanos, no de un sustituto”, señala.
Sin embrago, no descarta que los malos usos puedan causar daños. “Robert Oppenheimer, el científico estadounidense que dirigió el proyecto Manhattan durante la segunda Guerra Mundial para crear la primera arma nuclear, pensaba que estas iban a acabar con la humanidad. Todas las tecnologías se pueden usar para el mal, así que pienso que no es la tecnología sino la ética de los humanos sobre el uso que se les dé”, agregó.
En eso coincide Jean-Gabriel Ganascia, filósofo y experto en inteligencia artificial, quien juzga “excesivo” el “grito de alarma” de Hawking. “El peligro es sobre todo el humano que utilizaría estas tecnologías para someter” a otras personas, dice Ganascia, profesor la Universidad Pierre et Marie Curie de París.
Pese a que Cordeiro no comparte la visión de Hawking, reconoce que las máquinas llegarían a sobrepasar la inteligencia biológica. Nick Bostrom, futurólogo de la Universidad de Oxford (Inglaterra), refuerza esa posición. “Las máquinas son ya más fuertes que nosotros. Pienso que también terminarán por ser más inteligentes, aunque no sea el caso actualmente”, dijo Bostrom.
En la orilla de Hawking está Daniela Cerqui, antropóloga de la universidad de Lausana. “Me gustó que un científico de las ‘ciencias puras’ diga esto. Delegamos cada vez más prerrogativas de los seres humanos a estas máquinas para que sean más competentes que nosotros. Terminaremos convertidos en sus esclavos”, añadió.
Pero no solo se trata de robots exterminadores como ‘Terminator’. La amenaza podría llegar también por programas de computador. ¿Qué pasaría si los desarrollos creados por el hombre aprendieran a mejorarse a sí mismos? Ya está sucediendo y no es para alarmarse. Los desarrollos siempre piden mejoras, algo así como las actualizaciones, que les dicen a los programadores qué deben hacer para llegar más lejos. De independizarse –aún se desconoce cómo llegarían a hacerlo- podrían ir tan rápido que los humanos dejaríamos de ser interesantes.
Investigadores como Anthony Cohn, profesor de la Universidad de Leeds (Inglaterra), sugieren que aún se está lejos de la inteligencia artificial general «completa», que preocupa a Hawking. «Se necesitarán aún varias décadas», añade.
Otros dicen que se está muy cerca y ponen como ejemplo el primer robot que pasó el test de Turing, considerada como la prueba de fuego de la inteligencia artificial, creada por el científico Alan Turing antes de suicidarse en 1954.
La prueba consiste en que los jueces intentan llevar una conversación con su interlocutor invisible y al final deben decidir si se trata de un humano o de una máquina. A mediados de este año, aunque en medio de críticas, un chatbot llamado Eugene Goostman –que personifica a un niño ucraniano de 13 años- convenció al 33 por ciento de los jueces que participaron en la prueba.
Como está el panorama, la duda no se resolverá antes de experimentar una situación que nos enfrente a un mundo de ciencia ficción o que lo desvirtúe a cambio de desarrollos futuristas aún bajo el mando humano.
Fuente: EL TIEMPO