Aunque los humanos la hayamos inventado, ella buscará autodeterminarse y liberarse del control humano.

James Barrat recientemente publicó un libro Nuestra invención final en el que recoge las opiniones de diversos científicos que actualmente se encuentran en las fronteras de la creación de máquinas inteligentes, máquinas que probablemente podrían pasar a “tambor batiente” la llamada “prueba de Turing” y que podrían ser la extinción de la humanidad.

En 1950, Alan Turing publicó un ensayo con el título Máquinas computadoras e inteligencia en el que para responder a la pregunta si las máquinas piensan, plantea un juego, “el juego de la imitación”, en el que un juez hace preguntas sobre cualquier número de temas a un interlocutor oculto tras una pantalla y si no es capaz de distinguir si es humana o mecánica su contraparte, se podría afirmar que existe pensamiento inteligente.

En 1997, la computadora Azul Profundo (Deep Blue) de la IBM ganó el torneo de ajedrez al campeón mundial Garry Kasparov. En 2011, otra súper computadora de la IBM llamada Watsoncompitió contra los dos grandes ganadores del juego “Jeopardy,” un difícil juego en el que el objetivo es contestar a diversas preguntas, sobre cualquier tema, en lenguaje natural en el menor tiempo posible. De nuevo la computadora Watson venció a los mejores jugadores humanos. Sin duda los avances de la computación son impresionantes.

En la actualidad, y ya con la posibilidad más o menos cercana de que las máquinas logren alcanzar los niveles computacionales de los cerebros humanos, diversos pensadores están planteando la necesidad de considerar no solo las ventajas de construir computadoras inteligentes sino también los peligros que tales artefactos podrían significar para la supervivencia de la humanidad.

Fantasear acerca de cómo pensarán las máquinas súper inteligentes es peligroso. Simplemente no podemos concebir qué relación tendrán ellas con nosotros. Isaac Asimov en sus novelas de la década de 1950 construyó las tres reglas de la robótica. Estas son un eco de la norma “no matarás y no harás daño a tus semejantes”. Sin embargo los humanos no somos “semejantes” a esas súper inteligencias mecánicas.

Nick Bostrom director del “Instituto del futuro de la humanidad” de la Universidad de Oxford afirma “la súper inteligencia es radicalmente diferente en un sentido tecnológico ya que cambiará las reglas del progreso. Ella inventará las invenciones y dictará la velocidad de los avances tecnológicos. Los humanos ya no dirigiremos el cambio y no habrá marcha atrás. Aunque los humanos la hayamos inventado, ella buscará autodeterminarse y liberarse del control humano”.

Por ejemplo, Eliezer Yudkowski del Instituto de Investigación para la Inteligencia Artificial (IA), nos dice “la IA no te odia, la IA no te ama, simplemente tú estás hecho de átomos que ella puede utilizar”. Sin duda una visión de la IA terriblemente pesimista. Ray Kurzweil, el popularizador de la “singularidad”, por el contrario, no es nada pesimista. El cree que la IA será enormemente beneficiosa para la humanidad. Sin embargo, Bostrom nos previene que no podemos aceptar el método de “prueba y error” cuando existe una amenaza existencial. Simplemente ese enfoque es inadmisible.

El desarrollo de la súper inteligencia presenta beneficios potenciales enormes para la humanidad pero también una amenaza existencial. Desde ya habrá que sentarse a pensar seriamente en cómo enfrentar el desafío a la supervivencia de la humanidad que la aparición de otra inteligencia en este planeta, la inteligencia artificial no humana, circunstancia que Turing previó hace más de medio siglo.

Por Roberto Blum

Fuente: elperiodico.com.gt

Anuncios