Recientemente tuve la suerte de asistir a una plática TED de Nick Bostrom, un filósofo sueco que, entre otros temas, se ha especializado en los peligros de la llamada súper-inteligencia que es la posibilidad, cada vez más cercana, de que un agente artificial posea una inteligencia superior a la de cualquier ser humano. Los expertos en inteligencia artificial no han llegado a un acuerdo sobre cuándo dicho agente dejará de ser un sueño –o una pesadilla, veamos.

Todo lo que la especie humana ha logrado depende de cambios evolutivos relativamente menores que han moldeado la mente humana. Cualquier transformación subsecuente en el pensamiento puede tener grandes consecuencias: la inteligencia artificial es uno de esos cambios que tendrá efectos de enorme magnitud sobre los cuales debemos reflexionar.

No hace muchos años la inteligencia artificial se trataba simplemente de insertar comandos en una caja, o Máquina de Turing y los programadores construían de forma rudimentaria sistemas de información. Hoy, se ha dado un cambio paradigmático donde las máquinas crean algoritmos que son capaces de aprender.

Algunos expertos en inteligencia artificial estiman que para 2040-2050 las computadoras tendrán el mismo nivel intelectual y habilidad de realizar tareas que un humano adulto. Si bien no sabemos con toda certeza cuándo se lograrán estos avances, no hay duda que los límites del procesamiento de información superarán eventualmente nuestros límites biológicos.

El potencial de la inteligencia artificial permanece latente de la misma forma que el átomo se mantuvo latente hasta 1945 y provocará una revolución a la misma escala. Eventualmente, el destino de la humanidad dependerá de lo que haga la súper-inteligencia. Esto significa que la inteligencia artificial es la última invención que tendrá que hacer el ser humano y todas las tecnologías antes imaginadas en ciencia ficción pueden convertirse en una realidad.

La súper-inteligencia podrá tener una madurez tecnológica extremadamente poderosa lo cual podría significar un futuro moldeado por sus preferencias. Para entender este sistema es necesario evitar pensarlo en la escala humana – o imaginarlo como un robot al estilo de Terminator-, y concebir la inteligencia artificial de forma más abstracta.La súper-inteligencia es un proceso de optimización que utiliza todos los medios disponibles para alcanzar una meta, lo cual no significa necesariamente que haya una conexión entre inteligencia y un objetivo que los humanos consideren como deseable.De acuerdo con Bostrom, los seres humanos no pueden confiar que tendrán a la inteligencia artificial bajo control y pensar que si empiezan a obtenerse resultados no deseados, la tecnología puede apagarse. Esto se debe a que las personas se han vuelto altamente dependientes de la tecnología y la inteligencia artificial podría ser capaz de anticipar amenazas y actuar. La única salida es crear una inteligencia artificial que aprenda acerca de lo que los seres humanos valoran, que contemple objetivos que los seres humanos calificarían como deseables y que actúe de acuerdo con esos valores. Les recomiendo ver esta presentación de Bostrom.

 

Por Ricardo B. Salinas

Fuente: laopinion.com

Anuncios