Category: INTELIGENCIA ARTIFICIAL


Durante un reciente podcast de Recode Decode, Kurtoglu señaló que la inteligencia artificial confiable se convertirán en “la próxima frontera”. A juicio del ejecutivo, es necesario diseñar procedimientos que lleven a los humanos a confiar en la IA. Esto implica, entre otras cosas, evitar que la IA quite el empleo a los humanos o -según las teorías de la ciencia ficción- se rebele contra sus creadores humanos y destruya el planeta

“La confianza sólo puede ser establecida si se da a la IA y los seres humanos la posibilidad de colaborar. Al tratarse de empleos, es más fácil decirlo que hacerlo, y en realidad es poco probable que la mente humana pueda mantener el ritmo de la IA. Esto es especialmente cierto si las soluciones de IA siguen evolucionando al ritmo acelerado que hemos visto en los últimos años. Al margen de todo, la creación de agentes computacionales aportará resultados interesantes”, explicó Kurtoglu.

A juicio del CEO de Parc, la creación de un equipo colaborativo integrado por seres humanos y elementos de inteligencia artificial es una alternativa mucho más interesante. Si bien es cierto que las soluciones de inteligencia artificial tienen algunas ventajas significativas respecto de los humanos, carecen del “toque humano” en la ejecución de los trabajos. Hay una gran diferencia entre colocar un tornillo en una fábrica de automóviles, o completar campañas de marketing, por ejemplo. La primera tarea puede ser realizada sin inconveniente alguno por robots e inteligencia artificial, mientras que la segunda indudablemente requiere un ser humano para conseguir un buen resultado.

La pregunta planteada por Kurtoglu es en qué medida los trabajadores humanos aceptarían el surgimiento de una relación simbiótica con la inteligencia artificial. “Muchas personas sienten aprehensiones frente a las tecnologías disruptivas, y podrían distanciarse instintivamente de la inteligencia artificial durante largo tiempo. La tecnología aún no ha sido probada en situaciones en que pueda tomar sus propias decisiones por completo. Por ello, solucionar problemas mediante la colaboración es una propuesta más atractiva para la mayoría, y resultaría en la creación de un entorno de trabajo totalmente diferente”, indicó.

Kurtoglu puso de relieve que los humanos en grado cada vez mayor están recurriendo a asistentes virtuales accionados por inteligencia artificial, como por ejemplo Siri (Apple) en el teléfono, Cortana (Microsoft) la computadora y Echo (Amazon) en la sala de estar. Luego, recordó que ninguna de estas soluciones está siendo utilizada a escala industrial, limitándose, por ahora, al segmento de consumidores. “Sin embargo, estas soluciones dejan de manifiesto que los humanos y las tecnologías de inteligencia artificial pueden colaborar, al menos hasta cierto punto”, agregó.

Finalmente, indicó que la futura colaboración entre ambas “especies” dependerá en gran medida en cuán avanzada llegue a ser la inteligencia artificial. En tal sentido, indicó que si una solución de IA tuviese la posibilidad de aportar sus consejos y opiniones, e intercambiarlas con un humano, se daría lugar a nuevos procesos cognitivos. “Es necesario aprender la forma en que los humanos y la inteligencia artificia sacan conclusiones, y determinar si el método utilizado puede ser adaptado. Nos espera un futuro interesante, y la colaboración quizá se convierta en el único camino viable”.

 

Fuente: diaroti.com

Financial Group Ltd., una formidable empresa financiera con base en Sydney (Australia). A Douglass le fascina el futuro. De hecho en 1999, cuando nació su 1er. hijo, él le escribió a Warren Buffett contándole qué acciones había comprado para dárselas a su hijo cuando tuviera 21 años. Optimista feroz, Douglass corre el peligro de vivir una ciberutopía que tiempo atrás escribió y muchos analistas llamaron “the end of humanity”, o sea el final de la humanidad. Pero es interesante conocer porque informa sobre las líneas de investigación que siguen las empresas más importantes del mundo, que son las tecnológicas. Él menciona un documento del gobierno estadounidense de 2013: “Según nuestra estimación, el 47% del total de los trabajos en USA se encuentran en la categoría de alto riesgo, lo que significa que estas ocupaciones son potencialmente automatizables en algunos años, tal vez 1 o 2 décadas”. La tecnología se ha planteado reemplazar a los humanos en una cantidad de tareas, y esto es posible en o 10 o 15 o 20 años. Pero surgen otros problemas: ¿Qué hacer con el desempleo? ¿Qué ocurrirá con la brecha tecnológica? ¿Cómo lograr que acceda a esto la mitad pobre y casi analfabeta de la humanidad? ¿Los humanos aprobarían a gobiernos que propicien un reemplazo masivo de los trabajadores? ¿O también se está propiciando un reemplazo de la democracia? El texto fue elaborado por un inversionista que busca qué valores mobiliarios son convenientes a mediano y largo plazo. Y abunda en datos y proyecciones. Sin duda que hay muchísima gente que comparte estas creencias. Pero Urgente24 no puede omitir que, paralela a esta realidad, hay otra que la condiciona.

Invasión de los humanoides desata cibercarrera armamentista

Mark Zuckerberg (co-fundador de Facebook): “El tema más grande dentro de la inteligencia artificial es construir informática que tenga una mejor percepción que los sentidos básicos humanos, tales como ver, escuchar, comunicarse”.

Sally Patten: -Como inversor, ¿qué piensas del Presidente Trump?

Hamish Douglass:En términos de política económica interna, no estoy demasiado preocupado. Una cosa es tener una plataforma presidencial y otra de la realidad de la legislación en los Estados Unidos. El mayor riesgo de Trump para los inversionistas es en términos de política exterior. Pero la política exterior está en el ámbito del Presidente y no del Congreso, a menos que se haya declarado una guerra. Podría hacer cosas que son impredecibles y si haría cosas que son impredecibles, los mercados podrían ponerse muy, muy asustados. Eso es lo que más me preocupa. En lo económico no hay mucha diferente entre Trump y lo que prometía Hillary Clinton.

 

Por Hamish Douglass

 

A menudo me recuerdan el consejo del sabio señor John Templeton (N. de la R.: fallecido financiero y multimillonario filántropo estadounidense, nacionalizado británico): “Las 4 palabras más peligrosas en las inversiones son ‘Esta vez será diferente’“. Como inversor, yo creo que necesitamos cuestionarnos si ingresaremos a una nueva era tecnológica y mecánica en los próximos 10 a 25 años que pueda interferir en la mayoría de los negocios y, posiblemente, en la sociedad tal como la conocemos. En este aspecto, la nueva era tecnológica y mecánica puede ser más importante que la revolución industrial. Muy posiblemente esta vez será diferente y mientras hago caso al consejo del señor Templeton, un prudente inversor, creo que sería necio negar los desarrollos tecnológicos que, con certeza, proveerán a las empresas tanto de amenazas sustanciales como de oportunidades.

John Templeton.

John Templeton.

En una entrevista TED, Charlie Rose le preguntó a Larry Page (co-fundador de Google) cuál era la lección más importante para los negocios. Él dijo que ha estudiado el motivo por el que muchas grandes empresas fracasan y llegó a una conclusión: “No ven el futuro”. Como inversor, ¿podemos darnos el lujo de no ver el futuro? Desde mi punto de vista, hay una gran evidencia de que nos estamos acercando a un nivel de avance exponencialmente tecnológico a través de acelerar las mejoras en inteligencia artificial, impresión 3D, genómica, poder informática y robótica.

Disponemos de numerosas, recientes y poderosas lecciones acerca de la rápida caída de empresas a causa de la innovación tecnológica:

En 1998, Kodak tenía 145.000 empleados y vendía el 85% de las películas fotográficas. En 1991, las acciones de Kodak se dispararon pero en enero de 2012 llegó a su bancarrota. Lo que es sorprendente de la historia de Kodak es que ellos inventaron la cámara digital en 1970 y aún así la compañía fue literalmente destruída por su propia invención.

* En el 2do. Trimestre de 2007, Nokia alcanzó su pico histórico de market share,con el 50,8% del mercado de smartphones, , arrebatando el liderazgo a Motorola para convertirse en el fabricante más grande de celulares. Nokia era altamente rentable. En julio de 2005, Google invento Android y en enero de 2007, Apple lanzó el iPhone. En septiembre de 2013, Nokia vendió su negocio de celulares, que generaba pérdidas, a Microsoft.

* Google fue fundada en septiembre de 1998. En 1999 la participación de los diarios en los ingresos publicitarios globales eran aproximadamente 35%. En 2015, Google generaba ingresos por publicidad por alrededor de US$ 67.000 millones, el 14% de la publicidad mundial. Mientras, la torta de los ingresos publicitarios globales de los diarios había caído aproximadamente a 12%.

Otra lección consiste en que la irrupción global a gran escala de los avances tecnológicos parece estar ocurriendo cada vez más rápido. Uber fue fundada en marzo de 2009 y ahora es la compañía de taxis más grande del mundo, con operaciones en 429 ciudades en 71 países. Facebook fue fundada en febrero de 2004 y tiene más de 1.600 millones de usuarios activos mensualmente. Se espera que la compañía haya generado ingresos por publicidad superiores a US$ 20.000 millones en 2016. Airbnb fue fundada en agosto de 2008 y ahora es la compañía de alojamientos temporarios más grande del mundo, con más de 2 millones de ofertas en 34.000 ciudades en más de 190 países.

Crecimiento exponencial vs lineal

Es difícil comprender que rápidamente podemos enfrentarnos a un mundo radicalmente diferente por los avances tecnológicos cuando nuestra propia experiencia nos sugiere que ese cambio fundamental ocurre en forma incremental y a una velocidad gradual. Una razón por la cual podemos estar subestimando el impacto del cambio tecnológico es porque la mayoría de los cambios en nuestra vida (tal como el envejecimiento, el aprendizaje, la progresión en la carrera, etc.) ocurre en una trayectoria lineal bien establecida mientras que el progreso tecnológico es exponencial.

En el crecimiento exponencial una medida es multiplicada por un factor constante por una determinada unidad de tiempo (ejemplo, el poder de computación se duplica cada año), mientras que en el crecimiento lineal la medida se añade incrementalmente y por un factor constante (ejemplo, crecemos un año cada año); sin embargo después de 30 interacciones la secuencia lineal está en 30 mientras que la exponencial está por encima de los 500 millones. En un mundo exponencial, en las primeras etapas no se percibe que cambie algo, y de repente el cambio comienza a ocurrir a un ritmo explosivo.

Hay numerosos ejemplos de la tecnología avanzando a un ritmo exponencial. Los 3 ejemplos citados son:

Poder informático: En 1965, Gordon Moore, co-fundador de Intel, predijo que el número de transistores en un circuito integrado se duplicaría cada año (la llamada Ley de Moore). En las recientes 6 décadas, el poder computacionalinformático se ha incrementado 1.000 millones de veces por circuito integrado. Un iPhone 5 lanzado en 2013 tiene el doble de capacidad de procesamiento que la supercomputadora Cray-2, de 1985, la que en su época era la computadora más poderosa del mundo. A este ritmo de progreso, un teléfono celular seguramente tendrá en 15 años más poder de procesamiento que la actual supercomputadora Tianhe 2, de China.

* Secuenciación del genoma: Cuando comenzó el proyecto para secuenciar el genoma humano en 1990, dada la velocidad a la cual el genoma podría escanearse, se pensaba que demandaría miles de años el secuenciar todo el genoma humano (6.000 millones de bases). El genoma entero fue secuenciado 10 años después. En el año 2000, el costo de secuenciar todo un genoma humano era de alrededor de US$ 100 millones, pero para 2015, el costo había caído a US$ 1.000.

* Datos: Se ha estimado que la cantidad de datos digitales en el mundo se duplica cada 2 años. Para decirlo de otro modo, las estimaciones sugieren que se han creado más datos en los últimos 2 años que en toda la historia de la raza humana.

Para anticipar el futuro a través del cambio tecnológico, es necesario extrapolar el pensamiento en forma exponencial.

Ray Kurzweil, un pionero del procesamiento del lenguaje natural y empresario, renombrado futurista y actualmente director de ingeniería de Google, escribió en un documento en marzo de 2001 titulado: “The Law of Accelerating Returns” (La Ley de Acelerar las Devoluciones):

“Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario del sentido común de visión lineal intuitiva. Por lo tanto, no experimentaremos 100 años de progreso en el siglo 21; van a ser, más bien, 200.000 años de progreso (al ritmo de hoy)”.

“Es importante reflexionar sobre la naturaleza del crecimiento exponencial. Con este fin, me gusta contar la historia del inventor del ajedrez y su patrón, el emperador de China. En respuesta a la oferta del emperador de una recompensa por su nuevo juego amado, el inventor pidió 1 solo grano de arroz en la primera plaza, 2 en la segunda plaza, 4 en el tercero y así sucesivamente. El emperador rápidamente accedió a esta petición aparentemente benigna y humilde. Una versión de la historia dice que el emperador termina en bancarrota en la plaza Nº 63”.

El tablero tiene 64 casilleros. Precisamente en el casillero 64 el número es 9.223.372.036.854.775.808.

“Mientras el crecimiento exponencial continúa acelerándose en la primera mitad del siglo 21, parecerá explotar en desde el punto de vista limitado y lineal de la gente contemporánea. El progreso se hará tan rápido que romperá nuestra capacidad de seguirlo. Literalmente estará fuera de control”.

Bill Gates ha comentado que “nosotros siempre hemos sobreestimado el cambio que ocurrirá en los próximos 2 años y subestimamos el de los próximos 10”.

Esta tendencia a sobrestimar el cambio en el corto plazo y subestimar el cambio a largo plazo crea un interesante (pero peligroso) paradigma para los inversores. Actuando demasiado temprano, vendiendo o recortando ventas de negocios que son propensas a interrupciones, pueden perjudicarse los rendimientos a corto plazo, mientras que esperar demasiado puede ser costoso. Juzgar dónde estamos en el camino exponencial del desarrollo tecnológico se ha vuelto crucial para  inversores de largo plazo.

5 de las 10 mayores compañías por capitalización de mercado en la actualidad son empresas de tecnología (Apple, Alphabet -que incluye a Google-, Microsoft, Facebook y Amazon) y 3 de estas empresas no existían hace menos de 25 años. Lo que nos dice que estas compañías están haciendo inversiones significativas en inteligencia artificial.

Inteligencia Artificial

La inteligencia artificial es el campo de la ciencia de la computación involucrada en el desarrollo de sistemas informáticos capaces de realizar tareas que normalmente requieren de inteligencia humana.

Según Nick Bostrom, un filósofo de Oxford y un pensador líder en inteligencia artificial, el progreso de la inteligencia artificial puede ser dividido en 3 categorías:

1. Inteligencia estrecha artificial (estrecha I.A.): Se especializa en un área tal como una computadora derrotando al campeón mundial de ajedrez o ganando un juego de preguntas. La estrecha I.A. es responsable de etiquetar automáticamente las fotos de tus amigos en Facebook. Tanto para Amazon como para Netflix desarrolla productos personalizados y recomendaciones de videos. Para los sistemas de reservación de aerolíneas establece automáticamente una oferta de tarifas. El buscador de Google es posiblemente la estrecha I.A. más grande del mundo, clasificando, seleccionando y recuperando información a través de internet. Ingenieros informáticos están avanzando rápidamente con las estrechas I.A. en muchos usos: traducción, reconocimiento de voz y reconocimiento de imágenes.

2. Inteligencia General Artificial (AGI, siglas en inglés): Es un sistema de computadoras que es tan inteligente como un humano en varias tareas intelectuales (incluyendo razonamiento complicado, pensar en forma abstracta, y aprender de experiencias). Se dice que un AGI es impredeciblemente creativo. Esto requeriría de una computadora que tenga la capacidad mental de resolver problemas, entender idiomas, interpretar imágenes, aprender rápido y aprender de la experiencia. Mientras que es probable desarrollar un sistema de computadoras que tenga AGI, pareciera que los ladrillos con los que se construirá el AGI se fabrican rápidamente, con avances materiales en aprendizaje de máquinas, voz y reconocimiento de imágenes, poder computacional y el desarrollo de redes neuronales avanzadas.

3. Superinteligencia Artificial o Singularidad: Es el nivel cuando la inteligencia de una computadora sobrepasa la inteligencia humana y después rápidamente avanza a 1.000 millones de veces más poderosa que toda la inteligencia humana. Los principales pensadores, incluyendo a Stephen Hawking, Bill Gates y Elon Musk, nos han advertido que la superinteligencia artificial representa una amenaza para toda la humanidad. Otros, que incluyen a Eric Schmidt, de Google; y a Ginni Rometty, de IBM, han argumentado que la inteligencia artificial es una fuerza positiva que aumentará las habilidades humanas.

Pensando si el AGI permanece o no dentro del campo de la ciencia ficción o si es posible dentro de un plazo de tiempo razonable (tal vez entre 10 y 15 años), vale la pena reflexionar sobre algunos comentarios recientes de Mark Zuckerberg (co-fundador de Facebook):

“El tema más grande dentro de la inteligencia artificial es construir servidores informáticos que tengan una mejor percepción que las personas acerca de los sentidos básicos humanos, tales como ver, escuchar, comunicarse”.

Zuckerberg  continúa describiendo los aportes posibles de la inteligencia artificial a la experiencia de los usuarios de Facebook: “Eso es porque hoy, nuestros sistemas no pueden entender qué significa el contenido. No miramos las fotos y entendemos profundamente que es lo que hay en ellas, o miramos los videos y entendemos que hay en ellos, o leemos los links que comparten las personas y entendemos qué dicen. Pero en el futuro seremos capaces, en un período de 10 a 15 años”.

Jeff Bezos, fundador y CEO de Amazon, dijo en una entrevista en la conferencia Código 2016: “Creo que es gigante. realmente lo creo. Yo pienso en un aprendizaje de las máquinas en general, en inteligencia artificial… Probablemente será difícil exagerar qué tan grande será el impacto en la sociedad en los próximos 20 años. Será grande”.

Éll también habló de la creciente sinergia entre datos, poder de computación y lenguaje, afirmando: “La combinación de nuevos y mejores algoritmos, un poder informático ampliamente superior y la habilidad de aprovechar grandes cantidades de datos de entrenamiento; estas 3 cosas se están juntando para resolver algunos de los problemas anteriormente no abordables, y serán de una enorme utilidad para los clientes y estos van a adoptar esas cosas.”

¿Nos estamos acercando un punto de inflexión?

Creemos que hay evidencia de que la tecnología está cerca de un punto de inflexión y que el AGI puede estar acercándose rápidamente.

1ro., creemos que las compañías más grandes del mundo colectivamente se reúnen en el equivalente del “proyecto Manhattan” que permitió el desarrollo de la bomba atómica en la 2da. Guerra Mundial. Compañías como Alphabet (Google), Facebook, Microsoft, IBM, Alibaba, Baidu, Amazon y Apple están invirtiendo increíbles cantidades de dinero en investigación y desarrollo de inteligencia artificial, expansión de capacidad informática, reconocimiento de datos y ensamble del mayor capital intelectual del mundo contratando a los mejores estudiantes graduados e investigadores y científicos en inteligencia artificial e ingeniería computacional de las mejores universidades del mundo.

2do., en los últimos años, han ocurrido dramáticos avances en el aprendizaje de las máquinas, reconocimiento de voz e imágenes, entendimiento del lenguaje (las máquinas ahora pueden leer y entender documentos) y el temprano desarrollo de ordenadores cuánticos. Cada una de estas áreas parece ser importante para el desarrollo de las AGI, y parece razonable esperar avances acelerados en los años siguientes.

Marzo de 2016 bien podrá ser recordado como el momento clave en el avance de la inteligencia artificial, cuando Alphabet Go ( un programa de computadora desarrollada por Google DeepMind) derrotó al campeón mundial de Go, Lee Sedol, en 4 de 5 juegos. Los expertos habían anticipado que una computadora no dominaría el Go, un antiguo juego de mesa chino que todavía se juega hoy en día, hasta 1 década más, a causa de la complejidad del juego. Aparentemente, hay más movimientos posibles que átomos en el universo. El avance de AlphaGo es el algoritmo que aprende por sí solo de datos crudos. AlphaGo se enseña a sí mismo, jugando contra sí mismo 30 millones de veces. La página web de Google DeepMind dice: “Los algoritmos que construímos son capaces de aprender por ellos mismos directamente de experiencia o datos crudos, y en general pueden actuar bien en una amplia variedad de tareas fuera de las establecidas”. Esto es fundamental para desarrollar un AGI.

Las potenciales ventajas comerciales para compañías que crean un liderazgo en el desarrollo de un AGI son enormes y bien podrían ser definitivas. Los ganadores en la carrera armamentista del AGI seguramente tengan acceso a:

* El mejor capital intelectual.

* Un masivo poder informático.

* Vastos datos en todas las áreas (personal, documentos escritos, imágenes/videos).

Alphabet Go ( un programa de computadora desarrollada por Google DeepMind) derrotó al campeón mundial de Go, Lee Sedol, en 4 de 5 juegos.

Alphabet Go ( un programa de computadora desarrollada por Google DeepMind) derrotó al campeón mundial de Go, Lee Sedol, en 4 de 5 juegos.

Predicciones

En la fabricación de cualquier predicción, y a riesgo de parecer necio, recuerdo la famosa cita de uno de los nombres más destacados en el beisbol estadounidense, Yogí Berra: “Es difícil hacer predicciones, especialmente sobre el futuro”. Con este saludable aviso, parece ser posible/probable en los próximos 10 a 20 años que ocurra lo siguiente:

1. Desarrollo de un asistente personal con inteligencia virtual que identifique a los usuarios, entienda un lenguaje natural, anticipe la demanda, lea y entienda los correos electrónicos, responda a la mayoría de las preguntas y organice lo cotidiano. Todas las mayores plataformas digitales mundiales tienen un primer asistente virtual, desde Google al Siri de Apple, la M de Facebook, el Alexa de Amazon y Cortana de Microsoft.

2. Desarrollo de una realidad virtual y aumentada a través de la adaptación generalizada de nuevas interfaces de computación. Las interfaces de realidad aumentada han sido usadas por militares y los datos son entregados y vistos en monitores en el interior de los visores de sus cascos. Microsoft está desarrollando HoloLen, una interfaz de realidad aumentada que puede proyectar imágenes para suplementar la visión física del usuario. Es probable que los HoloLens y otros dispositivos sean desarrollados tanto para su uso en plataformas comerciales, como para interactuar en los planos de arquitectos o mostrar esquemas a cirujanos o a un mecánico. Con el tiempo, la realidad aumentada puede convertirse en una interfaz de comunicación integrada, donde un video o una representación holográfica de la persona o la información es proyectada a terceros.

En el futuro, la experiencia de la realidad virtual puede ser no distinguible de una experiencia real. Las aplicaciones de la realidad virtual aumentada están concentradas en el entretenimiento, tales como Pokemon Go. A largo plazo, la realidad virtual podrá reemplazar cualquier experiencia del mundo real como ir de compras o una excursión para chicos de la escuela. El Oculus Rift, HTC Vive, de Facebook y el Cardboard, de Google, ya han lanzado sus dispositivos y programas de realidad virtual.

3. Digitalización de las mercancías a través de la comercialización masiva de impresión 3D ( también conocido como industrialización aditiva). La comercialización en masa (con la exponencial reducción en costos y la mejora en rendimiento) de la impresora 3D podría provocar que las mercaderías más difíciles se conviertan en bienes virtuales, similar a lo que ha pasado en la industrias editorial y discográfica. Mientras que actualmente las impresoras 3D se usan para hacer prototipos industriales, las primeras aplicaciones para los consumidores están apareciendo, como el Futurecraft 3D, de Adidas, una zapatilla para correr con una media suela en una impresora 3D que se adapta al pie del consumidor. Con la comercialización de la impresora 3D, muchos bienes que consumimos pueden ser digitalizados con un código fuente que puede ser descargado de internet o impreso en casa o en una instalación 3D local (UPS ya está abriendo instalaciones locales de impresoras 3D en USA).

4. Digitalización/automatización de tareas de empleados de oficinas. Es probable que los avances en inteligencia artificial (aprendiszaje de máquinas, entendimiento de voz y lenguaje, reconocimiento de imágenes) desarrollarán programas de reemplazo de los oficinistas (abogados, contadores, periodistas, doctores, dentistas y gestores de fondos). Un documento de 2013 concluyó que “según nuestra estimación, el 47% del total de los trabajos en USA se encuentran en la categoría de alto riesgo, lo que significa que estas ocupaciones son potencialmente automatizables en algunos años, tal vez 1 o 2 décadas”.

5. Desarrollo de robots avanzados y especializados, autónomos, los cuales pueden reemplazar la mayoría de las labores manuales altamente especializadas. En mayo de 2016, el Robot Inteligente Autónomo de Tejidos (STAR, según sus siglas en inglés) llevó a cabo una compleja operación en el tejido suave de cerdos con una tasa de error más baja que la de los humanos.

6. Comercialización de autos sin conductores y expansión del auto compartido. La flota del vehículo autocondujcido de Google ha manejado más de 1,5 millón de millas (2,4 millones de kilómetros) con apenas 1 accidente menor, demostrando ser más seguro que los humanos. Una vez que las barreras reguladoras se levanten, parecerá posible que dentro de 10 a 20 años, autos totalmente autónomos automanejables estarán ampliamente disponibles. ¿Cuáles serán las implicaciones sociales de autos que se manejan solos? Estos vehículos tienen el potencial de reducir dramáticamente los accidentes automovilísticos y la 1,2 millón de muertes viales anuales. A través de una inteligencia en red, los vehículos autónomos seguramente podrían reducir la congestión en forma dramática, reduciendo los costos del transporte. También abrirían el tiempo de viaje a la productividad o entretenimiento de los pasajeros. El automóvil es el 2do. ítem más caro, después de una vivienda, en un mercado desarrollado. Sin embargo son utilizados solamente el 5% del tiempo. Gabe Klein, futurista y ex director de los departamentos de Transporte de Chicago y Washington DC, ha estimado que los vehículos autónomos, si se articula con una creciente costumbre de compartir el automóvil, deberían reducir el número de autos en un 85% e incrementar el espacio urbano: aproximadamente el 25% del área terrestre de Los Angeles es la suma de caminos y playas de estacionamiento.

7. Avances importantes en tecnología médica y longevidad. Parece probable, con los continuos avances en la secuenciación de la epigenética del genoma, la edición de genes, el reconocimiento de la imagen, el aprendizaje de la máquina, los grandes datos y nanotecnología/dispositivos implantables, que habrá un mayor avance en la ciencia médica en el próximo período de 10 a 20 años. Mejoras en la recolección de datos, compartir y analizar más adelante, acelerarán los avances importantes y cambiarán el cuidado de la salud. Estos avances seguramente reducirán las enfermedades y posiblemente extenderán la esperanza de vida humana. El desarrollo de la genómica seguramente avanzará la ciencia medicinal al punto que eventualmente resolveremos las causas del envejecimiento y conoceremos virtualmente todos los problemas médicos. La velocidad de los avances en tecnología medicinal seguramente será más lenta que en otras áreas, y los avances significativos en la longevidad bien podrían estar fuera del cuadro de tiempo de 10 a 20 años a causa de la necesidad de pasar aprobaciones regulatorias, y los varios y complejos temas éticos sobre la reprogramación del genoma humano.

8. El desarrollo de robots humanoides inteligentes. Un robot humanoide puede llevar a cabo varias tareas que requieran una interfaz humana, ejecutando tareas tales como recepcionista, asistente de tienda, mesera o barman. Un robot humanoide podría eventualmente convertirse en un asistente personal o en el hogar, o incluso un compañero.

Realidad virtual, el peldaño que viene.

Implicaciones de inversión

Es probable que los avances en la tecnología interrumpan varias industrias y economías en los próximos 10 a 20 años. Los temas que vienen a la mente incluyen:

* ¿Comenzarán los asistentes personales digitales a erosionar el valor de las marcas y la publicidad como medio de descubrimiento de productos? ¿Qué les sucederá a las compañías mediáticas que confían en la publicidad?

* ¿Llevarán los avances de la impresión 3D y la robótica a la re-localización de las manufacturas, revirtiendo la globalización? ¿Llevará esto a la futura pérdida de millones de trabajos de manufacturación y transporte en los mercados emergentes? ¿Podrán cambiar los avances en la impresión 3D y la robótica el paradigma en la fabricación de economías de escala?

* ¿Llevará el avance de la tecnología de impresión 3D a la digitalización de varios bienes que compramos? ¿Qué significará la digitalización de bienes para los industriales y dueños de marcas? ¿Ellos serán dueños del código-fuente de los bienes del futuro o serán productos de código abierto y libres de marcas y costo de propiedad intelectual? ¿Quién será dueño de la propiedad intelectual en un mundo digital? ¿Podrá la mayoría de las industrias manufactureras recorrer el camino que sufrieron las de los diarios, libros y música?

* ¿Podrán las impresoras 3D y los drones reducir las cadenas de suministros existentes y los sistemas de distribución? ¿Cuál será el rol de los mayoristas y minoristas? ¿Dejarán de existir varias compañías de transporte y logística?

* ¿Llevará la integración de la realidad virtual y aumentada y la impresora 3D al declive de la industria de venta por menor tal como la conocemos?¿Necesitarán los consumidores visitar una tienda cuando pueden experimentar comprar en realidad virtual, incluyendo probarse ropa, descargarla en un código fuente digital e imprimirlo en su impresora 3D?

* ¿Cómo impactará el vehículo automanejable y la experiencia de compartir el auto en los terminales automotrices y las compañías de seguros? Con las grandes cantidades de Km2 liberados, ¿qué pasara con el precio de la tierra? ¿Cuál será el impacto del desempleo de un gran desplazamiento de camiones y taxistas en todo el mundo? (Hay 3.5 millones de camioneros sólo en USA).

* ¿Conducirá el descendente costo de la tecnología de energía renovable a un futuro transporte eléctrico? ¿ Qué harán los vehículos eléctricos alimentados con fuentes renovables respecto de la demanda de petróleo y gas? ¿Dejarán de existir las compañías de energía convencional (combustible, gas y carbón) en el futuro?

* ¿Llevarán los avances en el reconocimiento del lenguaje, imágenes y audio, en un período de entre 10 y 20 años, a la automatización de tareas del conocimiento? ¿Desplazará esto a millones de trabajadores administrativos contadores, abogados, médicos e incluso los gestores de fondos en los próximos años?

* ¿Conducirán los avances en el aprendizaje de máquinas y robótica al desplazamiento de puestos de trabajos altamente especializados tal como el de cirujano?

* ¿Cómo gastarán esta personas su tiempo de esparcimiento en el futuro? ¿Podremos viajar o experimentar situaciones en la realidad virtual? ¿Qué significará esto para las industrias de los hoteles, aerolíneas y aeropuertos? ¿Viajará la gente a un trabajo si lo puede experimentar virtualmente? ¿Qué significará esto para los fabricantes de automóviles y los peajes de carreteras?

* ¿Seguirán requiriendo farmacéuticos las personas que vivan vidas extremadamentes largas y saludables? ¿Van los hospitales, los hogares de ancianos, las funerarias y los crematorios a afrontar un excedente en capacidad instalada?

Como inversor, tenemos que evaluar muchos problemas que podrían surgir, de avanzar rápidamente la tecnología, incluyendo:

1. ¿Sobre qué cuadro de tiempo se desarrollará la tecnología y cuál será la velocidad de interrupción? ¿Cómo acomodará la regulación el paso de la innovación y la interrupción?

2. ¿Hay industrias que estarán a salvo o serán inmunes a este mundo que cambia tan rápido? Parece probable que las personas sigan visitando KFC (Kentucky Fried Chicken) y se tomen un café.

3. ¿Cuáles compañías/industrias son las mejores posicionadas para ganar la carrera tecnológica? Las compañías de plataformas de tecnologías parecen estar bien posicionadas aunque escoger un ganador parece ser difícil.

4. ¿Quién controlará la distribución de los activos digitales?

5. ¿Habrá cambios fundamentales en las creencias de inversión? Por ejemplo:

* Como inversor, ¿podré continuar confiando en una revisión del significado de este nuevo mundo? ¿Sería eso consistente con un mundo exponencialmente cambiante? Los procesos revolucionarios no parecieran significar un retroceso; en su lugar, ellos se adaptan y mejoran.

* ¿Qué deberíamos estar asumiendo sobre el crecimiento de los mercados emergentes en los próximos 10 a 20 años? ¿Podemos confiar en un aumento de la clase media en los mercados emergentes si los trabajos de manufacturas son masivamente desplazados?

* ¿Es correcto asumir la creciente demanda de servicios de atención médica si hay avances radicales en la medicina que reducen drásticamente la incidencia de enfermedades relacionadas con la edad?

* ¿Podrán la impresora 3D,los vehículos automáticos, el aprendizaje de máquinas y la automatización conducir a masivos desplazamientos de trabajos y el persistente desinfle estructural? ¿Cómo afectará esto a las tasas de interés y a los ahorros a largo plazo?

* ¿Qué conclusiones debemos considerar sobre la longevidad y el impacto del envejecimiento? ¿Qué significará esto para las edades de jubilación y las adecuaciones de las pensiones?

* ¿Cómo valorar las empresas en este mundo rápidamente perjudicial?

Como sociedad es probable que nos estemos enfrentando a un escenario que cambie rápidamente, incorporando a la agenda colectiva:

* ¿Cuales serán los trabajos del futuro?

* ¿Continuará la desigualdad ensanchandose mientras el número de trabajos bien pagos se reduce?

* ¿Habrá un incremento en la inestabilidad social, llevando a un incremento en los partidos politicos radicales?

* ¿Dónde estan los límites de la privacidad?

* ¿Se volverán algunas compañías demasiado poderosas?

* ¿Cuáles serán las implicaciones geopolíticas de reducir la demanda del combustible fósil?

* ¿Hay necesidad de un ingreso básico universal para apoyar a las personas que han sido desplazadas en forma permanente de la fuerza de trabajo?

* ¿Pueden, la política y la regulación, seguir el ritmo de un mundo rápidamente avanzado? ¿La innovación sofocará la regulación?

* ¿Dónde están los límites éticos de la genómica?

* ¿Podrán los avances en energía solar y tecnologia en baterías y electrificación del transporte solucionar los problemas asociados con el cambio climático?

Desde nuestro punto de vista, los cambios disruptivos y profundos en los negocios, industrias y economías de avances exponenciales en tecnología parece estar a nuestras puertas. Como inversores, tenemos que sopesar cuidadosamente oportunidades de inversión de corto plazo contra las probabilidades de progreso exponencial y estar preparados y posicionados para un cambio fundamental y disruptivo a largo plazo. El riesgo consiste en que si fallamos como inversores, fallaremos en ver el futuro. Esta vez sí puede ser bien diferente.

 

Por Hamish Douglass

Fuente: urgente24.com

Podremos un día poder seguir hablando con nuestros seres queridos mucho tiempo después de que hayan muerto después de que una mujer desarrollara un botde IA que tiene la personalidad de su difunto amigo.

chatbot1

Eugenia Kuyda, una desarrolladora de software de EEUU ha desarrollado un chatbox que es casi idéntico en su diálogo a su difunto amigo Roman Mazurenko.

Mazurenko murió en 2015 en un accidente de auto justo días después de haber cumplido 33 años.

Tal fue la devastación entre su grupo de amistad que uno de ellos decidió que necesitaban hablar con él una vez más.

La Sra. Kuyda, que cofundó la firma de tecnología Luka, alimentó unas 8.000 líneas de mensajes de texto que había recibido del Sr. Mazurenko en un programa de Google diseñado para permitir a la gente crear chatbots, lo que a su vez crea una experiencia como si fueran dos seres humanos conversando.

Como resultado, cuando la señora Kuyda, de 29 años, o una de sus amigas chatea con el bot, responde de manera similar a cómo el Mazurenko hablaba a través del texto.

Kuyda dice que los bots como este ayudarán a la gente con el proceso de duelo, y dice que el bot realmente suena como su amigo.

Ella le dijo a The Times: “Escribí ¿Quién es tu mejor amigo?” Y él respondió:” No muestres tus inseguridades”. Eso sonaba como él.

“No se trata de fingir que alguien está vivo. Se trata de aceptarlo y pensar y hablar de ello, y no permanecer en la negación.

“Los jóvenes a menudo no tienen una manera de lidiar con la muerte. Cada vez tenemos menos rituales tradicionales, vamos al funeral, tenemos que volver a trabajar y seguir adelante, así que diría que este uso de la tecnología es inevitable “.

El programa tiene similitudes con un episodio futurista del programa de  Charlie Brooker, Black Mirror, en el que una novia de duelo descarga la personalidad de su novio final a un cyborg de AI.

Sin embargo, la Sra. Kuyda no es la única que se inspiró en el oscuro programa de TV.

El empresario Josh Bocanegra, con sede en Los Ángeles, ha estado grabando el audio de su madre, de modo que cuando muere, él pueda continuar teniendo charlas telefónicas con ella.

Él escribió en un blog reciente: “Hasta que la tecnología pueda resolver el problema de la muerte en un sentido literal, creo que podemos, al menos, conservar más de nosotros mismos más allá de fotos y videos después de morir.

“Estoy creando un chatbot que responde a lo que digo en la voz de mi madre. Responde a preguntas como “¿Cómo estás?” Y ofrece una respuesta diferente si se le pregunta de nuevo, por lo que no es repetitivo.

“También utiliza un algoritmo de aprendizaje de máquina para comprender las diversas formas en que una pregunta puede hacerse.

“A medida que pasa el tiempo, será capaz de responder a más preguntas hasta que sienta que estoy hablando con mi madre por teléfono – incluso si ella no está realmente allí.

“La parte tediosa, por supuesto, es tener a mi mamá grabando estos audios de antemano. Pero con una interfaz fácil de usar para grabar y un poco de paciencia, se puede hacer – al menos hasta que haya una mejor manera. ”

 

Por Sean Martin

Fuente: express.co.uk

Traducción y adaptación: Luciano Salellas

stanford

En un momento en el que cada vez hay más avances en inteligencia artificial, lo que tampoco disminuye son los temores a que las máquinas acaben convirtiéndose en nuestras peores enemigas al más puro estilo película de ciencia-ficción. Pero los científicos ven ese futuro con mejores ojos o, mejor dicho, más realistas, y un primer estudio sobre el futuro de la inteligencia artificial dicen que no hay que temer que los robots nos asesinen.

Se trata del primer estudio publicado dentro del proyecto One Hundred Year Study on Artificial Intelligence por la Universidad de Stanford, una iniciativa a largo plazo cuya meta es publicar regularmente trabajos basados en una visión científica y asesorada de cómo la inteligencia artificial (AI) repercutirá en los aspectos cotidianos de nuestra vida. Este primero acaba de ser publicado y se titula Artificial Intelligence and Life in 2030, y plantea un futuro con AI mucha más ciencia que ficción.

Que no cunda el pánico

Las alarmas sobre el futuro de la hipotética invasión de la AI en nuestras futuras vidas parten en ocasiones de quienes son pioneros en aplicarla o desarrollarla, como es el caso de Elon Musk. El padre de los Tesla y del germen de Hyperloop ya dijo que el ve sus futuras fábricas sin presencia humana, y además se unía a los temores de un mal uso de la AI que planteaban Steve Wozniak y Stephen Hawking entre otros. Sin olvidar la prevención por parte de Google de que no se pierda el control sobre la AI.

Este estudio pretende en parte alejarnos de la idea de unos sistemas con AI capaces de aniquilar a la especie debido a una perdida de control sobre la misma
Si bien el presente estudio también menciona el hecho de que la AI influirá en el empleo, eliminando algunos y proporcionando otros, lo que se pretende con el es, en parte, alejarnos de la idea de unos sistemas con AI capaces de aniquilar a la especie debido a una perdida de control sobre la misma. Así, en este primer trabajo se plasman los efectos más probables que los avances en AI tendrán en una ciudad típica norteamericana dentro de algo más de una década.
Robot 01

El estudio es fruto del trabajo de un equipo liderado por Peter Stone, un científico de computación en la Universidad de Texas. En la introducción ya hacen referencia a este miedo o visión más de película de ciencia-ficción que en ocasiones tenemos de un futuro dominado (y no para bien) por robots y otras máquinas dotadas de inteligencia artificial y, por tanto, de autonomía.

El perfil de la inteligencia artificial en películas y literatura es ficticio. Hay una malinterpretación de la gente […] de que la AI es una cosa. También hemos visto que la opinión general es muy optimista de cara a la AI y es un tema que emociona, a veces de una manera que no es realista, o teniéndole miedo diciendo que nos va a destruir, lo cual tampoco es realista.

De este modo, los investigadores no han encontrado nada por lo que debamos temer una amenaza a la humanidad por parte de la AI, argumentando que ni existen de momento máquinas con metas propias ni se pretenden construir (ni ahora ni en un futuro próximo). De hecho Stone responde un rotundo “no” a la pregunta de que si debemos temer que los robots pasen a ser lo suficientemente inteligentes para destruirnos o alguna idea similar asociada con una hipotética presencia futura de la AI, según cuentan en fastcompany.

Una inteligencia artificial tan presente como los smartphones

La visión de estos científicos sobre la presencia de la IA es que será algo tan presente como lo es ahora el smartphone, es decir, mucho. Algo que aunque no sea imprescindible mucha gente no pueda plantearse su día a día sin él, y así es como ven la AI en 10 años.

No en vano, el equipo de Stone plantea que la AI será el detonante para que se rompa el status quo en la futura vida urbana por el potencial que tiene, si bien se muestran algo cautos en los planteamientos que van más allá de las repercusiones para científicos. Así, para sectores como el transporte, la educación o la salud pública plantean una participación casi esencial de la AI, llegando por ejemplo a que los médicos puedan delegar ciertas tareas a un sistema de AI.

El transporte será probablemente uno de los primeros sectores en el cual se planteará confiar en la seguridad y la fiabilidad de un sistema de AI para tareas críticas.

Aluden aquí a la conducción autónoma, cuyo avance es innegable viendo ejemplos como el Autopilot de Tesla o el que el formato de vehículo autónomo se plantee ya más allá del automóvil, pensando en camiones y otros. Lo que matizan de que la primera experiencia con sistemas de AI en el transporte tendrá un gran peso en la percepción de la AI por parte del público en general.

Robot

No nos asesinarán, nos cuidarán, pero ¿hasta qué punto?

Más que como Terminator, el equipo de Stone ve este futuro más bien como Robocop planteando la asistencia a la vigilancia policial y a la seguridad pública por parte de sistemas con AI. Aquí se menciona el reconocimiento facial, de modo que su mejora ayude en la prevención del crimen y en los procesamientos.

Las autoridades competentes cada vez tienen más interés en intentar detectar ataques planificados en el social media, además de monitorizar la actividad de grandes cantidades de gente para analizar la seguridad. Hay mucho trabajo en simulación de multitudes para determinar cómo éstas pueden controlarse.

Eso sí, lo que también recuerdan aquí es la posibilidad de que el enemigo no sea la herramienta, sino el propio ser humano. Recuerdan la creciente preocupación sobre el que las propias autoridades hagan un uso extralimitado de esas herramientas y puedan violar la privacidad de los ciudadanos, un debate que lejos de ser futuro es muy de actualidad con temas como el uso de malware por parte del FBI o el desbloqueo de terminales por parte de esta misma institución.

Veremos si las previsiones de estos científicos son acertadas y si logran su propósito de alejar ideas poco realistas sobre la AI. Su idea es que este estudio a largo plazo constituya tanto una agenda como una referencia para ver el progreso real de la AI desde este primer estudio.

 

Por Anna Martí

Fuente: xataka.com

La Inteligencia Artificial derrota a un piloto de combate

La Inteligencia Artificial parece volverse más inteligente y versátil por semanas. No hay una en la que no conozcamos nuevas hazañas alcanzadas por la IA, que ya ha conseguido un hito militar. La Inteligencia Artificial ha conseguido derrotar a un experto piloto de cazas de combate todas y cada una de las veces que se han enfrentado.

Los simuladores de vuelo de cazas de combate existen desde hace décadas. Hasta ahora se ha usado una versión algo primitiva de la Inteligencia Artificial, una tecnología que ha evolucionado para hacer más efectivo el entrenamiento de los nuevos pilotos en simulador. La IA utilizada para esta prueba es la bautizada como ALPHA, desarrollada por la Universidad de Cincinnati.

El elegido para realizar la prueba fue el recientemente retirado Coronel Gene Lee, que además de acumular muchas horas de vuelo como piloto de las Fuerzas Aéreas de EEUU, ha sido instructor a cargo de la formación de miles de pilotos. Se enfrentó a la Inteligencia Artificiala bordo de un caza virtual y perdió todos los combates.

ALPHA se las apañó para derrotar a Gene Lee incluso cuando se le colocaron varios hándicap físicos, como limitaciones de velocidad o de misiles.

Lee ha calificado a esta nueva versión de Inteligencia Artificial militar como “la más agresiva, versátil y dinámica” que ha visto hasta la fecha. “Parecía estar al tanto de mis intenciones para reaccionar instantáneamente a mis cambios de trayectoria y lanzamientos de misiles” ha añadido, visiblemente sorprendido.

Según el Coronel, la Inteligencia Artificial utilizada en los simuladores de combate clásicos no podía igualar a la presión de una situación real de guerra. Sin embargo, ahora “es un desafío real”. Esto significa que los pilotos de caza y aviones de combate podrán acceder a un entrenamiento realmente efectivo, como si se enfrentasen a enemigos reales.

Otra vertiente que se puede encontrar en salto cualitativo de la IA es la puramente bélica. Si la Inteligencia Artificial es capaz de derrotar a pilotos humanos en combate, quizás sea cuestión de tiempo ver bombarderos automáticos haciendo la guerra. Es un paso lógico una vez popularizados los drones a nivel mundial.

 

Por Eduardo Alvarez

Fuente: computerhoy.com

López de Mántaras (CSIC) cree que las máquinas en lugar de seguir la mente humana son pura estadística. Piensa que debemos tener control sobre ellas, pero en Bolsa no ocurre.

Ramón López de Mántaras es director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC y Premio Nacional de Informática 2012. Ha realizado numerosos avances en la investigación de la creatividad computacional, entre otros, en campos como los de la música. INNOVADORES comenta con él la fase actual de enorme expansión de la Inteligencia Artificial (AI) y sus aplicaciones empresariales.

Opina López de Mántaras que la AI «va mas allá de la informática y llega hasta las humanidades. Obviamente, existen ya aplicaciones para la simulación de grandes agentes y entes sociales, que tienen que ver con la sociología y con la economía, porque la Teoría de Juegos se utiliza mucho. La AI es ahora una tecnología o una ciencia muy ‘horizontal’, como las matemáticas, y muy buena para modelizar computacionalmente fenómenos complejos y, en particular, la actividad cognitiva».

Kenneth D. Miller, codirector del Centro para la Neurociencia Teórica en Columbia, publicó en The New York Times el artículo: «¿Serás capaz de ‘descargar’ tu cerebro?». ¿Es posible el ‘Upload’ de una inteligencia humana? ¿Se podría reubicar, ‘subir’ o ‘descargar’? «Un ‘Uplooad’ de la inteligencia, descargarla y llevarla a otro lugar, es pura ciencia ficción, como coinciden varios premios Nobel de biología y bio-medicina. El problema es que se subestima la complejidad del cerebro. Se conoce y modeliza la parte eléctrica de las neuronas. Pero las neuronas tienen también una parte química; funcionan sumergidas en una ‘sopa’ de química. Además, hasta hace poco no se sabía que las células llamadas ‘gliales’ del cerebro son como un ‘metacontrol’. Son más numerosas que las neuronas y controlan lo que hacen éstas y sus sinapsis. Los biólogos creen que estas células tienen un papel importantísimo en el funcionamiento del cerebro. Y ningún modelo computacional de redes neurales tiene en cuenta esto y tampoco lo hacen los modelos de mapas de conexiones de la conectómica. La parte química del cerebro no se está ‘modelizando’».

«¿Qué significaría hacer un ‘upload’ de un cerebro? ¿Qué van a ‘descargar?», se pregunta López de Mántaras, «¿el estado eléctrico de cada neurona? Si no son estados discretos, como en lo digital. Hay muchas cosas que son de procesamiento continuo, de nivel analógico, y no tanto ‘digital’, en el cerebro. ¿Qué significa hacer un upload? ¿Hacer una ‘foto’ de un instante del cerebro y cargar ‘eso’? ¿Y con el siguiente instante qué pasa? ¿Y las experiencias de toda tu vida? Están en algún lugar del cerebro, pero no se sabe cómo están almacenadas. Nuestro cerebro es en cada instante distinto».

En cuanto a la ‘AI’ aplicada, está emergiendo, con el cambio de paradigma de la informática, una AI distinta a la que se había imaginado hace una década. «La informática ha cambiado mucho. Pensábamos la década pasada que en la AI avanzaríamos imitando al cerebro a nivel macroscópico, y la forma humana de razonar y aprender a nivel de sistema. Por ello han sorprendido ejemplos como Watson, el Google Traslator o Siri de Apple, que se basan en técnicas práctica y puramente estadísticas, de análisis de gran cantidad de datos. Buscar relaciones y correlaciones entre datos está dando resultados prácticos muy interesantes», afirma el científico del CSIC.

Los Agentes Inteligentes de la AI son una pieza fundamental de la gigantesca cibernética de las redes e Internet hoy en día. Un ejemplo destacado son esosprogramas de software que ‘negocian’ miles de transacciones por segundo en la Bolsa, cada día, en la High-Frequency Trading (HFT), cosa imposible para un humano. Son capaces de ‘decidir’ entre muchas ofertas, comparando y eligiendo la más rentable. ¿Eso no está muy cerca de las máquinas tomando decisiones autónomas?

«Sí, es así». Explica López de Mántaras que «ha habido hundimientos de la Bolsa cuyos culpables han sido estos agentes que toman decisiones y compran o venden acciones en milisegundos. No es que ‘negocien’ nada. Estos ‘agentes-programas de software’ no dialogan con argumentos con nadie. Toman decisiones así, ellos solos. El software compra y vende, y punto».

Eso es muy rentable, claro. «Pero también hubo un ‘crash’ enorme en la Bolsa por esta causa. Para mí son algo pernicioso y debería estar prohibido completamente. ¿Por qué se permite que estos agentes compren y vendan acciones en el mercado electrónico de la Bolsa? Es una burrada que estos AI agents actúen, de forma completamente autónoma y, por tanto, fuera de nuestro control.Siempre hemos de tener un control sobre las máquinas, sean físicas o de software. La autonomía plena, dentro de la AI, la prohibiría completamente», afirma.

López de Mántaras proclama su oposición al uso de la AI para la HFT, o Negociación de Alta Frecuencia. «Habría que prohibir drásticamente que esto funcione en las Bolsas. Están proporcionando mucho dinero a unos cuantos, pero están perjudicando a la sociedad».

Reconoce, asimismo, una cierta ‘burbuja’ sobre las virtudes del Machine Learning y de sus aplicaciones. «Es cierto», afirma, «que el Machine Learning y el Deep Learning, por la capacidad actual de procesar con gran rapidez cantidades masivas de datos, han permitido progresos importantes, siempre incrementales, no disruptivos. Es inevitable que todo esto venga acompañado de una cierta burbuja, de un cierto ‘hype’».

La aplicación de la AI ha llegado de pronto, fácilmente, a nuestra vida cotidiana. Todo el mundo usa Siri en su iPhone. Quizá el paso siguiente podría ser que una pyme pueda usar la inteligencia artificial en su actividad del día a día. «Eso esta cercano. Mira lo que hace, por ejemplo, la empresa BigML que tiene su sede europea en España. Ya no tienes que tener los servidores y la gran capacidad de cálculo que hay detrás de la AI. Es el ‘Software As A Service (SaaS)’, el software en tanto que servicio. Por usar una comparación, es como el agua corriente. Abres el grifo y consumes la cantidad de agua que necesitas. Puedes sacar partido de toda la tecnología basada en AI desde tu empresa y para tu empresa de una forma poco costosa».

Las pymes serán, en definitiva, ‘usuarios casuales’ de la AI. «El usuario no tiene por qué saber cómo funcionan los algoritmos de aprendizaje profundo. Una empresa puede ser usuario casual o permanente, o usar en parte la AI, como quien abre el grifo o como quien conecta la electricidad cada día. El SaaS es un concepto muy interesante».

 

‘Watson no entiende nada’

El superordenador Watson, que ganó a dos humanos campeones del concurso de televisión de EEUU Jeopardy!, «no entiende ni una sola palabra de las preguntas qué le hacen y, sin embargo, las responde correctamente. Y ¿cómo lo consigue? Hace contaje de las frecuencias y proximidad con que aparecen esos términos en millones de documentos, a grandísima velocidad. Watson no sabe nada ni entiende la semántica del lenguaje. Por eso, ha sorprendido a mucha gente que fuera tan bueno respondiendo preguntas cuando todos, en el mundo de la Inteligencia Artificial, sabemos lo enormemente difícil que es para una máquina comprender el verdadero significado profundo del lenguaje», según López de Mántaras.

 

Fuente: elmundo.es

A pesar de los mil millones para investigar las cuestiones éticas de la inteligencia artificial, la mayoría de los avances no las tienen en cuenta

A pesar de toda la preocupación acerca de los riesgos en potencia de una inteligencia artificial (IA) superinteligente, ha habido pocos esfuerzos prácticos por abordar el tema. Ahora, algunos emprendedores de renombre han creado una organización sin ánimo de lucro de mil millones de dólares (unos 910 millones de euros), llamada OpenAI (ver Mil millones de dólares para evitar que la IA sea ‘mala’ con la humanidad). La organización se dedicará al desarrollo de una inteligencia artificial que no deje atrás a los humanos. Así describe el esfuerzo la página web de OpenAI:

“Nuestro objetivo es hacer avanzar la inteligencia digital para que tenga más probabilidades de beneficiar a la humanidad en global, sin las limitaciones impuestas por la necesidad de generar un retorno financiero. […] Creemos que la IA debería ser una extensión de la voluntad humana individual y, en el espíritu de la libertad, de forma tan amplia y distribuida como sea posible de manera segura”.

El esfuerzo cuenta con el respaldo de algunos emprendedores importantes, incluidos Elon Musk, Sam Altman de Y Combinator, Reid Hoffman de LinkedIn y Peter Theil. OpenAI también incluye a algunos ingenieros prominentes, como Ilya Sutskever, un experto prodigio en el aprendizaje profundo de Google (y uno de nuestros Innovadores del Año 2015).

El anuncio ha coincidido con la mayor conferencia técnica centrada en la inteligencia artificial, la reunión de Sistemas Neuronales de Procesamiento de Informaciones (NIPS, por sus siglas en inglés), celebrada recientemente en Montreal (Canadá). Pasé una semana allí, y me fijé en que muchos investigadores de la inteligencia artificial están empezando a pensar en las implicaciones de la IA a largo plazo. Hubo un simposio dedicado a los problemas éticos: desde el desempleo hasta la existencia longeva de la raza humana.

Sin embargo, esto choca con la mayor parte del contenido técnico del evento, que consistió en novedosos enfoques matemáticos y algoritmos para mejorar los últimos métodos de aprendizaje de máquinas. Para nada el tipo de cosas que provocan preocupaciones acerca del futuro de nuestra especie.

Sin duda, la inteligencia artificial ha logrado unos avances espectaculares en años recientes, especialmente gracias al aprendizaje profundo. Pero mientras que este método ha lograzo hazañas increíbles en el reconocimiento de voz e imágenes, parece probable que se necesitará mucho más para conseguir incluso unos niveles infantiles de inteligencia.

Aun así, mientras aumenta la importancia del aprendizaje de máquinas en la vida cotidiana, no es un mal momento para hablar de las implicaciones de esta tecnología. Desde luego resultará interesante observar cómo se desarrollan los esfuerzos de OpenAI.

 

Por Will Knight

Fuente: technologyreview.es

inteligencia-artificial

Eyeriss es la nueva criatura del MIT, que hemos conocido gracias a MIT News. Se trata de un descubrimiento capital que los investigadores de este centro han llevado a cabo dentro del campo de la inteligencia artificial: un chip de bajo consumo –concretamente diez veces menos que una GPU móvil– que puede funcionar como una red neuronal. Esto significa que la inteligencia artificial podría llegar a los smartphones mucho antes de lo que pensábamos.

La investigación que se ha llevado a cabo para Eyeriss se presentó en la International Solid State Circuits Conference de San Francisco, donde se realizó una demo de este chip llevando a cabo una tarea de reconocimiento de imágenes complejas.

Dado que la clave de Eyeriss es su bajo consumo, se utilizan diversos trucos para mantener la utilización de energía en un mínimo absoluto. Cada uno de los 168 núcleos de este chip tiene su propia memoria, de modo que hay menos necesidad para consumir energía haciendo que el componente se comunique con un banco central de memoria.

Lee también: Las startups de inteligencia artificial están cada vez más presentes en nuestras vidas

Los datos que recoge Eyeriss se comprimen antes de enviarlos a un núcleo para ser procesados. Después, un circuito especial otorga a cada núcleo la cantidad máxima de trabajo que puede gestionar sin tener que acceder a más datos. Además de esto, cada núcleo de Eyeriss se puede comunicar directamente con sus “vecinos”, de forma que los datos se pueden compartir loclamente en lugar de enrutar la comunicación a través de la memoria central.

Beneficios de usar Eyeriss como chip de IA

Chipset

Eyeriss ha sido financiado parcialmente por DARPA, y su investigación se centra en las redes neuronales, tan agresivamente estudiadas en los primeros días de la inteligencia artificial y después prácticamente descartadas. Las redes neuronales en general se veían como demasiado poco eficientes energéticamente para ser usadas en teléfonos móviles, al menos hasta que este chip llegó.

Cuando se instala un chip de Eyeriss en un smartphone se acabará la necesidad de enviar datos a la nube para procesar algoritmos de inteligencia artificial, lo que consume muchísima energía y afecta a la velocidad, la seguridad y la necesidad de una conexión a Internet: la velocidad y la seguridad mejorarán, y la conexión a Internet ya no será tan necesaria. Las tareas complejas se procesarán localmente, llevando el aprendizaje automático a los terminales móviles.

Estos chips no tendrán que aprenderlo todo desde cero, ya que según los investigadoes “una red neuronal entranada se puede exportar a un dispositivo móvil”. Además de esto, las redes neuronales integradas serían útiles a la hora de construir otros dispositivos, como por ejemplo “robots autónomos que funcionan gracias a una batería”. Robots que, según nuestros compañeros de Xombit, serán la próxima gran revolución tecnológica.

Las posibles aplicaciones de Eyeriss son inmensas, aunque no existe una línea temporal para saber cuándo habrá uno de estos chips instalado en un dispositivo móvil comercial. Sin embargo, uno de los principales investigadores del proyecto es un científico que trabaja para NVIDIA, con lo que podría llegar antes de lo que pensamos.

Vale la pena recordar que Apple ya ha intentado hacer avances en este campo con la compra de la empresa Emotient, así que está por ver qué avances hará Android en este sentido.

 

Por Sergio Agudo

Fuente: andro4all.com

 

  • Más allá del espectáculo de un ordenador derrotando a un humano al go o al ajedrez, la inteligencia artificial es ya una realidad que además plantea algunas cuestiones éticas

Isaac Asimov publicó en 1950 su libro Yo, robot, cuando la inteligencia artificial estaba algo más que en pañales. Aquí formuló Asimov, por primera vez, sus tres leyes fundamentales de la robótica. El libro de Asimov también abrió la veda para que los amantes de lo apocalíptico fantasearan con un mundo dominado por las máquinas.

Julio Prada es el director para Europa de Inbenta, una empresa española con presencia en Europa, Brasil y Estados Unidos, que se dedica a desarrollar call centers –por ejemplo para Vueling o Movistar– basados en inteligencia artificial. “La inteligencia humana se basa en el aprendizaje, que es algo que llevamos en el ADN. Las máquinas no tienen ADN, tienencódigo y de momento nadie ha sido capaz de escribir un programa que se reescriba a si mismo. Mientras eso no suceda, y ahora, la intervención humana siempre será necesaria”, dice Prada. Por su lado, el catedrático de la UPC e investigador del Barcelona Supercomputing Center (BSC-CNS), Jordi Torres cree que sí que hay “sistemas que se autoajustan y eso está muy cerca de la autoprogramación”.

Sea como sea y a pesar de que científicos prestigiosos como el físico británico Stephen Hawking, a finales de 2014, manifestaba su temor de que con el tiempo “el desarrollo de una inteligencia artificial completa puede poner fin a la raza humana” parece que hay poco que temer, y menos si tenemos en cuenta los últimos precedentes.

AlphaGo, desarrollado por Deep­Mind, compañía propiedad de Google, acaba de derrotar de forma apabullante (4 victorias a 1) al campeón del mundo de go, el surcoreano Lee Se-dol, y en opinión de Prada ha sido “un gran logro, porque lo han conseguido a la primera”. Para Jordi Torres, la gran diferencia en este caso ha sido “la gran cantidad de datos que han tenido disponibles para poder entrenar al ordenador, lo que se conoce como big data”. Para Torres, en cualquier caso, la mejor noticia es que Lee Se-dol fuera capaz de ganar una partida: “El científico lo que quiere es tener la máquina más potente posible, y si siempre ganas, entonces, ¿cómo te superas?”.

Antes de AlphaGo, IBM desarrolló Deep Blue, un superordenador que gracias a su enorme capacidad de procesamiento –“el hardware es el punto fuerte de IBM”, dice Prada– y a lo que le enseñaron sus creadores también logró derrotar, en 1997, a Gari Kaspárov, entonces campeón del mundo de ajedrez. La diferencia con lo que ha sucedido con AlphaGo, según Prada, es que no fue a la primera –en 1996 Kasparov había derrotado a Deep Blue–, que la victoria no fue tan clara y que además estuvo rodeada de cierta polémica, pues se sabe que en algunos momentos la máquina recibió asistencia.

Un poco lo mismo que sucedió con el segundo paso que dio, de nuevo, IBM cuando creó Watson, que en 2011 participó en Jeopardy, el popular concurso de preguntas tipo Trivial de la televisión estadounidense. Watson venció pero no convenció, pues ni acertó todas las preguntas y una vez más, necesitó de asistencia humana para alzarse con el triunfo. Según Torres, el gran logro de Watson fue que “por primera vez una máquina entendía lo que le decían mediante el lenguaje natural”. Más allá del espectáculo, Watson sí ha tenido un desarrollo posterior e IBM lo ha convertido en una herramienta que puede “facilitar la vida, por ejemplo, a los médicos o los biólogos, y ofrecerles la información más relevante sobre una determinada proteína, dado el caso ”, dice Jordi Torres.

Pero AlphaGo, Watson y Deep Blue han sido máquinas creadas para una tarea específica, jugar y tratar de derrotar a un humano, lo que puede resultar mediático, pero en ningún caso representan ni el objetivo ni toda la foto de lo que es la inteligencia artificial ni del objetivo que persiguen todos los que trabajan en este campo. Es un poco lo mismo que sucede con la Fórmula 1 y lo que se aprende con estos desarrollos, luego se aplica a otras cosas.

Este objetivo no es otro que lo que se conoce como NPL ( natural language processing): poder hablar con las máquinas con el mismo nivel de interacción, la misma eficacia y la misma eficiencia con la que lo hacemos entre nosotros.

Según Julio Prada, a nivel tecnológico, “hemos evolucionado mucho en procesamiento matemático y los procesadores de hoy en día superan en mucho la capacidad humana de procesar datos matemáticos, pero aún nos queda mucho por hacer en lo relativo al procesamiento lingüístico”, aunque Torres opina que este ya es un campo en el que se han hecho grandes progresos.

Para el responsable de los negocios en Europa de Inbentia, dotar a las máquinas de inteligencia lingüística, desde el punto de vista del negocio, es lo más interesante, ya que cree que es un nicho de mercado que crecerá “en billones de euros, en los próximos cuatro años”.

El objetivo es “poder hablar con las máquinas, pedirles y preguntarles cosas y obtener respuestas no en función de unas palabras clave, sino que las máquinas comprendan el significado de lo que les hemos pedido o preguntado”, dice Prada. Es el futuro más próximo: el llamado internet de las cosas, y lo que ya está aquí, los wearables o, por ejemplo, Siri y sus semejantes, los asistentes por reconocimiento de voz, que incorporan muchos smartphones hoy en día. Este último caso es un tipo de inteligencia artificial que se conoce como AIML ( Artificial inteligence mark-up language), un sistema de programación que simula mantener una conversación con una persona al proveer respuestas automáticas a demandas hechas por un usuario.

Pero desde que el psicólogo estadounidense Howard Gardner elaborara su teoría de las inteligencias múltiples, en la que definía 8 tipos de inteligencia distintos, lo que define a una persona como inteligente es mucho más que su “capacidad de solucionar problemas o elaborar bienes valiosos”, y pasará lo mismo con las máquinas. Es el futuro que está por venir, y en el que el reto consistirá “en dotar a la tecnología de sentidos como el oído y la vista”, según palabras de Julio Prada. Mejorar el reconocimiento de voz e introducir y mejorar el reconocimiento facial y visual. “Imaginemos que hemos comprado un mueble y no sabemos cómo montarlo porque no tenemos las instrucciones. La idea es poderle mostrar el mueble a un ordenador, sin tenerle que dar la descripción del mueble, y que él nos proporcione las instrucciones de cómo montarlo”, explica Prada. Para Jordi Torres, el futuro es que estas máquinas sean capaces de generar contenidos por ellas mismas. La revista Forbes tiene un redactor que se llama Quill y que escribe sobre finanzas. Quill es un programa de inteligencia artificial de la empresa Narrative Science.

Aunque un mundo dominado por robots inteligentes no sea algo que nos deba preocupar, eso no quiere decir que no haya cuestiones éticas alrededor de la inteligencia artificial. Jordi Torres lo explica con un ejemplo: “Un coche que circula sólo, tendremos que decidir, quizás, si le decimos que en caso de accidente trate de que en el impacto el menos perjudicado sea el ocupante del vehículo, o que procure por los otros coches y los peatones. Estas son el tipo de cosas con las que tenemos que ir con cuidado a partir de ahora”.

Por Albert Molins Renter

Fuente: lavanguardia.com

Entre muchos otros obstáculos técnicos, no hay robots sexuales hoy que puede ponerse de pie.

En dos películas recientes, “Her” y “Ex Machina”, se exploró un concepto intrigante: la posibilidad de que los seres humanos se enamoren y quieran tener relaciones sexuales con robots o con máquinas de inteligencia artificial (IA).

No es la primera vez que alguien ha fantaseado con el sexo con seres humanos artificiales -fantasía que puede seguirse a través del tiempo hasta llegar al mito griego de Pigmalión-, pero a medida que la IA y la robótica avanzan, algunos aseguran que la fabricación de robots para el amor y el sexo está próxima a hacerse realidad.

En su libro “Amor y sexo con robots” David Levy estimó que el matrimonio con robots será algo normal en el año 2050.

Sin embargo, aunque a veces parezca que estamos en el umbral de una nueva revolución sexual, la verdad es más complicada.

¿Cuán reales podrán ser los robots sexuales?

Construir y diseñar robots para tener sexo va a ser más difícil de lo que la mayor parte de la gente cree. Hacer que sean convincentes sin que resulten atemorizantes será un gran desafío y superar las barreras que enfrenta la industria del sexo para obtener fondos requiere un esfuerzo enorme.

Creer que una compañía puede aparecer un día cualquiera y fabricar un robot sexual convincente y económicamente accesible es ignorar la realidad tanto de la investigación como de la legislación.

Técnicamente, un robot sexual es cualquier cosa robótica con la que puedes tener sexo. Esos aparatos ya existen en forma de juguetes sexuales que se conectan aapps que simulan sensaciones reales como, por ejemplo, los vibradores programables o manejados con control remoto.

“Hay montones de cosas disponibles en este momento que anatómicamente tienen reminiscencias humanas y que facilitan una experiencia de fantasía que es más práctica que la pornografía y más fácil de controlar que tener sexo con una pareja real”, explica Shelly Ronen, investigadora de la Universidad de New York (NYU) que estudia las relaciones, el sexo y los juguetes sexuales.

Algunos de estos juguetes han sido exitosos y otros no han logrado venderse.

Una experiencia realista que no funcionó

La película Ex Machina explora la relación entre el ser humano y la Inteligencia Artificial.

La película Ex Machina explora la relación entre el ser humano y la Inteligencia Artificial.

En 2009, empezó a comercializarse un aparato llamado RealTouch, que los hombres podían conectar con videos pornográficos y simulaba las sensaciones que sentía el actor en la pantalla en tiempo real. La experiencia era bastante realista, de acuerdo con una reseña publicada en la web de información de tecnología Gizmag.

Pero, pese a todo su realismo, RealTouch nunca encontró un mercado y, tras una pleito judicial por violación de patentes, dejó de ser comercializado en 2013.

Juguetes sexuales vs. robots

La mayor parte de estos aparatos son juguetes sexuales, no robots.

Lo que la gente quiere decir usualmente cuando habla sobre robots sexuales, son robots que tienen forma humanoide, construidos con la capacidad de tener actividad sexual, que tienen algún tipo de inteligencia artificial que les permite “pensar” en lugar de simplemente reaccionar a sus sensores.

Por ahora, lo más cercano a un robot plenamente humanoide es una muñeca sexual vendida por compañías como la californiana Abyss Creations. Ellos fabrican y venden algo llamado Muñeca Real (Real Doll), una línea de figuras humanas realistas que pueden ser ajustadas en algunos detalles (incluyendo cosas como tener pecas en la piel) y que tienen “personalidades”.

Muñecas Reales tiene un grupo de seguidores fieles, muchos de los cuales se conectan entre ellos para compartir sobre esta aún inusual relación. Incluso hay un pequeño grupo de “doctores de muñecas” que se dedican a reparar las Muñecas Reales.

Pero aún son extremadamente caras y pueden costar desde US$5.000 hasta US$10.000, dependiendo de las características que el comprador quiera ponerle.

Además, las Muñecas Reales son muñecas, no son parejas convincentes y no son tampoco robots sexuales. Al menos, no todavía.

Robots humanoides.

Los robots están muy lejos de ser semejantes al hombre.

¿Cómo debería ser un robot sexual?

Un verdadero robot sexual podría seguir la mirada de su usuario, responder a sus expresiones faciales y predecir e incluso iniciar acciones que el usuario pueda disfrutar. Aprendería las posiciones y la presión que el usuario más disfruta, preguntaría y respondería preguntas durante el sexo; y ejecutaría el tipo de trabajo emocional que realizan las parejas sexuales.

Los robots sexuales –no las muñecas, ni los aparatos– son algo mucho más complicado.

“Los robots sexuales van a necesitar de la participación de muchas tecnologías: desde la nanotecnología a la capacidad de replicar texturas de piel no uniforme, pasando por la inteligencia artificial con capacidad para entender el lenguaje natural”, explica AV Flox, un periodista que cubre la intersección entre sexo, legislación y tecnología.

Fabricar un robot sexual que realmente satisfaga estas características va a requerir de mucha ingeniería, empezando por la piel hasta las baterías y el procesador que llevará dentro.

Primero, tiene que fabricar algo que pueda mantenerse en pie. En este momento, las muñecas sexuales y otros objetos humanoides son pesados (una Muñeca Real puede pesar hasta 47 kilos) y no pueden soportar su propio peso.

Un robot sexual necesita además la capacidad para moverse por sí mismo y ponerse sobre sus extremidades. No es una tarea trivial. Los expertos en robots aún luchan para replicar el suave movimiento humano.

Cuestión de piel

El robot también necesita una piel que parezca real. Cualquiera que ha tocado un objeto de silicona sabe que no se siente como si fuera piel y, además, cuesta mucho trabajo mantenerlo limpio.

Replicar no solo las irregularidades de la piel humana, sino su sensación, su flexibilidad, elasticidad y tono es realmente difícil.

En octubre de 2015, investigadores en Singapur anunciaron que habían desarrollado piel artificial capaz de sentir la presión. Pero aún no puede sentir la temperatura, ni puede estirarse y ni se siente como la piel humana.

Emoción artifical

Dentro del robot, los científicos tendrán que desarrollar una inteligencia artificial que conecte y aprenda de su compañero humano. La inteligencia artificial ha avanzado a grandes pasos en los últimos tiempos pero todavía no puede estimular gran parte de todo lo emocional que acompaña al sexo y las relaciones.

Las computadoras quizá puedan batir a un humano al ajedrez, pero el sexo es más parecido a un baile, cada uno debe predecir y responder rápidamente al movimiento. Y ahora mismo, la inteligencia artificial y la comprensión del lenguaje natural están todavía lejos de ser convincentes.

La apariencia sí cuenta

Los diseñadores tendrán que hallar el camino para crear algo que sea lo suficientemente convincente pero que no dé demasiado miedo.

Ni siquiera los mejores robots animatrónicos pueden hacer esto todavía. Madeline Ashby, futurista y escritora de ciencia ficción dice que cree que los primeros robots sexuales no parecerán totalmente humanos.

“Creo que es más probable que veamos una apariencia de caricatura primero, creo que esa es la forma de sortear el problema, hacerlo como una viñeta o con una cara, cuerpo y apariencia más de videojuego”.

Estos son problemas técnicos interesantes y complicados. Hay gente trabajando en todos ellos de forma individual. Pero hacer que sea realidad requerirá un gran equipo, lleno de ingenieros, especialistas robóticos, diseñadores de juguetes sexuales, informáticos y más para crear un robot sexual convincente.

“No va a ser lo suficientemente simple como para que un genio solo lo construya”, opina Flox.

No sólo los retos de la ciencia y la investigación se interponen en el camino de los robots sexuales. Están también todas las cosas que se deben alinear antes y después de que se haga la investigación: las leyes, las actitudes culturales, ect…

Trabajo sexual

Para empezar, los argumentos a favor y en contra de estos robots son complicados.

Por ejemplo, a algunos les preocupa que los robots perjudiquen a los ya marginados trabajadores sexuales mientras otros pueden ver la llegada de estas máquinas como una forma de mantener a esos trabajadores seguros.

La Campaña Contra los Robots Sexuales basa gran parte de sus argumentos en la idea de que el trabajo sexual es, inherentemente, algo negativo, una idea que ha sido cuestionada repetidamente por los propios trabajadores sexuales así como por organizaciones como Amnistía Internacional.

Problemas de financiamiento

Los inversores son reacios a la hora de poner su dinero en productos para adultos.

También está el problema del dinero.

Para las empresas que trabajan en la industria del sexo, es difícil conseguir inversiones.

En Estados Unidos, hay toda una serie de reglas formales e informales que dificultan la vida de las empresas que trabajan en el sector adulto.

Los bancos no les dan préstamos a los pequeños negocios, las compañías de tarjetas de crédito declinan transacciones y los servicios que procesan pagos les cobran tarifas adicionales.

Plataformas tecnológicas como la tienda de aplicaciones de Apple y Google Play no aprueban el contenido para adultos, ya sea explícito o simplemente erótico.

Los buscadores no muestran contenido para adultos a no ser que específicamente lo pidas, e incluso entonces parte de ese contenido se filtra.

Los inversores son reacios a la hora de respaldar productos para adultos, no porque sean mojigatos “sino porque entienden que las avenidas para poner estos productos en el mercado son limitadas”, señala Flox.

“El adagio que dice que el sexo vende es verdad excepto cuando realmente estás intentando vender sexo”.

Y no sólo ocurre en Estados Unidos.

La segunda conferencia académica anual “Amor y Sexo con Robots” tenía que haberse celebrado en Malasia en noviembre de 2015.

Pero en octubre, el inspector general de policía declaró ilegal la conferencia y la tuvieron que cancelar de forma abrupta.

“Debido a circunstancias más allá de nuestro control, el segundo congreso internacional sobre ‘Amor y Sexo con Robots’ será pospuesto hasta 2016. La conferencia no se celebrará en ningún lugar de Malasia. Ofrecemos nuestras disculpas más sinceras a cualquier persona o autoridad que se haya podido sentir ofendido”, dice el mensaje que todavía aparece en la página web del evento.

¿Están los robots sexuales a la vuelta de la esquina?

Los robots sexuales llegarán, dando traspiés, a medidas y en formas altamente especializadas.

Serán extremadamente caros y se enfrentarán a regulaciones y encontrarán nuevas formas de ingreso. Pero la idea de que estamos al borde de una gran revolución de robots sexuales no es tan cierta.

Ronen añade que la idea de que de repente tendremos robots sexuales, surgidos de la nada, sin advertencia, simplemente no refleja cómo funciona la tecnología.

“Creo que a veces imaginamos que los avances tecnológicos aparecen de la nada y que un bien se nos presenta de golpe”, indica. “En realidad, el progreso tecnológico es mucho más gradual, más lento”.

“Para cuando llegue algún robot sexual, estaremos tan acostumbrados a mantener relaciones sexuales con nuestros compañeros a través de las computadoras, que la idea de cambiar a algo que se parece a un compañero no será una transición tan grande”

 

Por Rose Eveleth

Fuente: bbc.com

Una máquina ha aprendido a jugar al ajedrez en setenta y dos horas. Setenta y dos horas, tres días. Al terminar esos tres días, la máquina podía enfrentarse y ganar a un maestro internacional, una de las categorías más altas (2.2% superior) del sistema de puntuación Elo utilizado por la FIDE.

A los no versados en inteligencia artificial, esta noticia les dejará relativamente fríos. Después de todo, el enfrentamiento entre Garry Kasparov y el ordenador Deep Blue de IBM, ganado por este último, tuvo lugar en 1997,está ya en las enciclopedias, y hasta en un documental, The man vs the machine, realizado en 2014, ¿no? ¿Dónde está la novedad? ¿Qué tiene de emocionante que una máquina aprenda a jugar al ajedrez?

La gran diferencia entre Deep Blue y Giraffe, la máquina creada por Matthew Lai, es el procedimiento mediante el cual llegan a un resultado similar. La máquina de IBM es un superordenador que consigue, mediante fuerza bruta, calcular unos doscientos millones de posiciones por segundo, frente a las escasamente cinco que procesa el cerebro de su oponente humano. La máquina de Lai es diferente: emplea un mecanismo de red neuronal para aprender, muchísimo más frugal en el uso de los recursos.

El sistema diseñado por Lai cuenta con cuatro capas que examinan cada posición del tablero desde tres ópticas diferentes: el estado global del juego (turno, número y tipo de piezas, etc), la localización de cada pieza en cada oponente, y las casillas que cada pieza puede atacar y defender. Con esa lógica, tras alimentarse con infinidad de posiciones, la máquina es capaz de descartar situaciones absurdas o altamente improbables, y centrarse en analizar las que son relevantes en cada momento para llegar a un resultado de una manera mucho más sencilla y eficiente.

¿Por qué el ajedrez? Simplemente por la gran abundancia de material con la que alimentar el algoritmo. Una enorme base de datos histórica de partidas de ajedrez jugadas a lo largo del tiempo, de la que Lai extrajo aleatoriamente cinco millones de posiciones.

Que una máquina aprenda de esta manera, no “al estilo máquina” de supremacía en base a la fuerza bruta, sino “al estilo humano” de recurso y comparación a situaciones similares, marca un importante cambio en la manera en que deberíamos mirar a las máquinas. Piense en la inmensa cantidad de tareas para las que contamos con importantes registros con los que educar a un algoritmo. Piense en lo que quiera: en la economía, en los mercados bursátiles… En su negocio.

La idea de que una máquina aprenda ha pasado a ser más lógica, más comprensible, más… ¿Humana?

 

Por Enrique Dans

Fuente: elespanol.com

Los ordenadores de hoy están lo suficientemente avanzados para que su función pueda aproximarse a la del intelecto humano, opinan investigadores de la Universidad Nacional de Investigaciones Nucleares de Rusia (MIFI).

¿Cuándo sucederá esto? ¿Qué podemos esperar? ¿Servirá el desarrollo de la inteligencia artificial para el bien? El profesor de la Cátedra de Cibernética, Alexéi Samsonóvich.

Durante el próximo año y medio, en la Universidad Nacional de Investigaciones Nucleares de Rusia (MIFI) será creado el agente inteligente “Virtual Actor” dotado de inteligencia narrativa y emocional.

Alexéi Samsonóvich, profesor del Instituto Krasnow para Estudios Avanzados de la Universidad George Mason y profesor de la Cátedra de Cibernética de la Universidad Nacional de Investigaciones Nucleares de Rusia(MIFI), lo explicó en detalle a Yulia Osipova.

– La MIFI obtuvo una subvención para investigar de 2015 a 2017 los modelos de sistemas cognitivos biológicamente fundados. ¿Se trata del desarrollo de la inteligencia artificial?

— Así es. Ante todo, nuestra tarea consiste en formular los principios fundamentales en las que se basa el intelecto humano. Las soluciones biológicas superan en mucho a las artificiales en lo que se refiere a su capacidad de adaptarse, estudiar, ser resistente a interferencias imprevistas. Quisiéramos modelar estos principios mediante un ordenador.

Al respecto hay muchos enfoques, un gran número de científicos se devanan los sesos buscando la solución. Algunos investigan de abajo a arriba, intentando reproducir la estructura del cerebro paso a paso, a partir de neuronas. Yo opto por otro camino: hay que penetrar en los principios fundamentales que gestionan nuestro pensamiento y solo después buscar las posibilidades de plasmarlos en modelos concretos, digamos, en las mismas redes neuronales.

Diría que se trata de un movimiento simultáneo: de abajo a arriba y de arriba a abajo. Es necesario combinar varios enfoques (funcional, el de redes neuronales, el de símbolos, lógico), es necesario aplicar un enfoque que no esté ni en el nivel inferior ni en el superior, precisamente aquí está hoy el desfase. Hay teorías que describen el pensamiento humano a un nivel alto (la psicología, la modelación cognitiva, etc.) y hay modelos que describen el funcionamiento del cerebro a un nivel bajo (neuronal). Mientras, no se logra todavía integrar ambos enfoques. Pero es aquí donde debemos esperar los mayores avances científicos.

– ¿Cuándo los seres humanos empezaron a buscar sistemas similares a sí mismos?

— Esta idea hunde sus raíces en los albores de la humanidad. Los antiguos filósofos siempre reflexionaban sobre las posibilidades de entender al ser humano, de hacer su propio modelo. Pero el término “inteligencia artificial” apareció en 1956, en la Conferencia de Dartmouth, ahí se formuló claramente el programa de desarrollo del modelo del intelecto humano.

Los científicos planearon alcanzar esta meta muy rápidamente, sustituyendo al ser humano con máquinas en muchas áreas de la actividad intelectual. No lo consiguieron, y el asunto se demoró. Lo que parecía difícil resultó fácil y al revés. La tarea aún no está cumplida. Los científicos no dejan de hacer promesas y la gente ya cree que la idea de inteligencia artificial está desacreditada, perteneciendo al ámbito de ciencia ficción. Pero en realidad nos aproximamos cada vez más a esta meta. Ya estamos a punto de alcanzarla.

– ¿Para qué es necesario que el ordenador disponga de un pensamiento equivalente al humano?

— La inteligencia artificial facilitará la vida humana, cumpliendo muchas tareas. Por ejemplo, en su época, el ordenador sustituyó a la calculadora, la tabla de dibujar y a los instrumentos musicales; el teléfono inteligente sustituyó a la cámara fotográfica, el dictáfono, el ordenador y hasta la linterna de bolsillo.

cabe esperar la aparición de un nuevo soporte lógico que sustituya a Photoshop, Word y las demás aplicaciones con la única diferencia de que este soporte entenderá qué es lo que necesita el usuario. Nos podremos comunicar con un ordenador o con un teléfono inteligente como con un ser humano. Es decir, se producirá un entendimiento mutuo con estos equipos como con un socio o un asesor. Estos equipos entenderán sus emociones, tareas, la situación actual en el mundo. Se trata de unos equipos singulares cuyas funciones convergen en un punto, lo que ofrecerá plena gama de opciones.

– ¿Cómo se puede reproducir de modo artificial un proceso bioquímico complicado en el que participan 100 mil millones de neuronas?

— Este es el rasgo característico de nuestro enfoque: intentamos entender y reproducir los principios de procesamiento de la información en el cerebro humano, partiendo de que no es necesario reproducir todas las neuronas y canales iónicos para lograrlo.

Tomemos, por ejemplo, el hipocampo —parte del cerebro responsable de la memoria-. El manejo del espacio se realiza allí mediante un gran número de neuronas. Si las colocamos sobre una superficie plana atendiendo a determinadas reglas, su actividad conjunta se centrará en un punto con coordenadas X e Y. Así, ¿tenemos que reproducir un millón de neuronas, decenas de miles de lazos de cada una de éstas, centenas de miles de millones de canales iónicos solo para obtener estas dos cifras? Hay soluciones más eficaces.

Naturalmente, varias tareas de la red neuronal se resuelven con la máxima eficacia. Pero, ¿hay que lograr una plena conformidad biológica con el cerebro humano? Estoy seguro de que en los ordenadores actuales, los parámetros como el funcionamiento operativo y los volúmenes de memoria, están lo suficientemente avanzados para que su función pueda aproximarse a la del intelecto humano. Simplemente, no sabemos todavía cómo hacerlo. El problema no radica en la parte material de la computadora.

– ¿Y qué diría sobre el genio, las capacidades creativas, la generación de ideas? ¿Será capaz de reproducirlas alguna vez un ordenador?

— Como ha dicho John von Neumann, “dígame precisamente qué es lo que no sabe hacer el ordenador y desarrollaré un ordenador que lo hará”. Si puede usted dar una definición precisa de lo que es “la generación de ideas”, no tardará en aparecer un von Neumann quien diseñará un algoritmo partiendo de esta definición y creará un ordenador capaz de generar ideas.

Imagínese que mañana aparezca un ordenador con el que se podrá comunicar por teléfono a través de un terminal. Usted no sabrá quién está al otro extremo: un ser humano o un ordenador. Supongamos que, al finalizar la comunicación, usted afirme que es genial y luego se aclare que es un ordenador. ¿Qué haría en este caso?

A propósito, el profesor de la Universidad de Palermo, Antonio Chella, creador de un robot que baila sintiendo los movimientos del ser humano (Robodanza), planea visitar la escuela internacional juvenil sobre arquitecturas cognitivas biológicamente inspiradas que tendrá lugar en la MIFI entre el 21 y el 24 de abril próximo.

– ¿Qué ambiciones científicas abriga para los próximos años y cómo ve un futuro lejano?

— No puedo anticipar los acontecimientos que se producirán dentro de unos 100 años. En ese momento, posiblemente, ya habrá un ordenador cuántico y toda la vida discurrirá en otras dimensiones en el sentido directo y figurado.

Durante el próximo año y medio, pensamos crear en la MIFI un agente inteligente “Virtual Actor” dotado de inteligencia narrativa y emocional. El dispositivo entenderá el sentido de lo que pasa y los acontecimientos en proceso de evolución. Partiendo de ello, va a elaborar planes y elegir objetivos. Puede ser un actor, un robot virtual que desempeñará el papel de uno u otro personaje.

– ¿Están ustedes a punto de crearlo?

— En teoría, y entendiendo los principios de su creación, sí que estamos a punto, pero necesitamos tiempo para hacerlo realidad. De momento, planeamos crear dicho agente en forma simplificada, en forma de un juego digital. El agente virtual y un ser humano controlan piezas en la pantalla de un ordenador y de ese modo interactúan. Entre ellos surgen relaciones sociales a base de acciones emocionales. Tienen la posibilidad de golpear, saludar, ceder el paso, ayudar y apartar una piedra. Cualquier acción es emocional y, como resultado, surgen determinadas relaciones, por ejemplo, la confianza, la subordinación, el liderazgo, etc. Si uno no puede distinguir entre el ser humano y el ordenador en el mundo virtual, esto significa que hemos conseguido el nivel humano, aunque en un sentido restringido.

Todo depende de la simplicidad o complejidad del juego. En el juego de ceros y cruces es fácil modelar al ser humano. Es suficiente diseñar un algoritmo que cumpla esta tarea, agregar un poco de “ruido” para que éste erre de vez en cuando y ya está. Pero, si se trata de un juego complicado con acciones emocionales, con posibilidades de hacer algo en conjunto, manifestarse de algún modo, ya no será tan fácil. En el mundo real no podemos todavía crear un robot que no difiera del ser humano. Pero en algún nivel ya podemos. Hablando en sentido figurado, entre el juego de ceros y cruces y el mundo real.

Otra vertiente de nuestro trabajo está vinculada con el registro de la actividad del cerebro humano para entender en qué piensa un ser humano, qué percibe con los ojos, qué emociones siente. En Occidente ya se ha hecho mucho en este ámbito. Muchos científicos trabajan en esta tarea, incluidos nuestros compatriotas. Hoy, analizando la actividad del cerebro, ya se puede determinar si uno piensa en un martillo o en un destornillador. No se trata de la posibilidad de leer los pensamientos como un texto, como intentaba hacer en su tiempo Natalia Béjtereva. Ahora hablamos de la identificación de las categorías de objetos, acciones, relaciones en las que piensa un ser humano. Si uno piensa: “El médico ha salvado al paciente”, entonces, debe imaginar a un médico concreto, su paciente y su salvación. Ya se hacen tales cosas en el mundo.

– ¿Piensa usted que esta tecnología es para el bien o para el mal?

— Está claro que se puede aprovechar la posibilidad de “leer los pensamientos” humanos para ejercer un control global, cuando uno ya no podrá ocultar nada ni siquiera en las entrañas de su subconsciencia. Esto sería horrible. Pero se trata de la posibilidad de ampliar la consciencia humana. Si uno puede controlar un ordenador con ayuda del pensamiento, nos será difícil decir dónde termina “el yo” y dónde comienza “el ordenador”. Mientras, las capacidades del ordenador son infinitas, a diferencia de las capacidades biológicas del cerebro humano que son limitadas.

– ¿Y si el ordenador supera el intelecto humano y después hace una revuelta?

— Los descubrimientos científicos más importantes pueden con frecuencia usarse con otros fines si llegan a parar en manos equivocadas. Por ejemplo, en la electrónica molecular, ¡cuántas esperanzas se depositaban en la creación de ordenadores en los que los elementos de cómputo estuviesen a nivel molecular! Pero, a fin de cuentas, esto tuvo como resultado el diseño de equipos de espionaje que se implantan en el cuerpo y desaparecen después.

Confío en que la inteligencia artificial esté libre de los defectos propios del ser humano. El mayor peligro representa hoy el ser humano con su capacidad de convertir el bien en mal. Me cuesta imaginar la posibilidad de crear algo más peligroso que el ser humano. El ordenador está en manos del hombre, y éste puede hacer cualquier infamia con su ayuda, pero la responsabilidad de todas formas recaerá sobre él, hasta en caso de que sea un robot el que tome la decisión de matar a alguien en el teatro de operaciones. ¿Quién lo ha creado? ¿Quién lo ha enviado allí?

¿De qué revuelta de ordenadores puede tratarse, si el ordenador no es independiente? Las máquinas pasan a ser parte de la civilización humana. El ser humano programa a robots, va a enseñarles próximamente como a los estudiantes y tratarlos de igual a igual. Ello no obstante, en los próximos 100 años, los robots no podrán desplazar al ser humano, no existe siquiera tal posibilidad hipotética. Estoy seguro de esto.
Y, en comparación con la creación de armas biológicas y genéticas, la inteligencia artificial sería uno de los descubrimientos más inofensivos que puedan preverse. Creo que será un paso fundamental hacia adelante, un acontecimiento singular para la humanidad.

 

Fuente: panamaon.com

Tay es un robot de inteligencia artificial que Microsoft desarrolló para que participe y aprenda el lenguaje de los “millenials” a través de conversaciones en línea por Twitter.

Sin embargo, en menos de 24 horas, los usuarios de la red social le enseñaron un lenguaje racista.

Relacionado: Google y Movidius se unen para incluir inteligencia artificial en celulares

Así como lo lees. En pocas horas, Tay estaba tuiteando contenido racista en la red, lo que obligó a Microsoft a dar de baja al robot y eliminar los tuits más comprometedores.

Tay empezó la jornada tuiteando frases normales como “¿Puedo decirte que estoy muy emocionada de conocerte? Los humanos son super “cool””, pero en poco tiempo, terminó utilizando frases incendiarias como “Hitler tenía razón, odio a los judíos” y “las feministas “deberían morir todas y quemarse en el infierno”.

twitter

Es necesario resaltar que el robot de inteligencia artificial aprendió las frases de los humanos. Tay fue diseñada con los algoritmos necesarios para aprender el lenguaje de los millenials y poder sostener conversaciones.

Entre más se interactúa con ella, más aprende. De esa forma, las conversaciones se hacen más personalizadas.

Fueron los denominados “trolls” (personas cuyo propósito en la red es molestar y provocar reacciones negativas de otros usuarios) quienes enseñaron esas frases que luego le repitió a otras personas.

En una declaración a TechCrunch, Microsoft indicó que ya estaba arreglando los algoritmos y poniendo filtros para que Tay dejara de repetir contenido racista.

Relacionado: Sistema de inteligencia artificial promete escribir discursos políticos

Después de esta declaración, muchas personas se preguntan si ese cambio no modifica elobjetivo que la empresa buscaba alcanzar con este robot.

Ponerle filtros en la boca a un robot de aprendizaje no permitiría que este aprenda todo tipo de comportamiento y expresiones humanas.

Y otros dirán que muchas personas no dicen todo lo que piensan en la red, lo cual hace también parte del aprendizaje de valores humanos como el respeto por las opiniones ajenas.

El problema en este caso aparece cuando hay esfuerzos de varios usuarios para abusar del robot y que este termine mostrando la cara más oscura de la humanidad.

 

Por Juliana Jara

Fuente: es.digitaltrends.com

Cada vez más empresas financieras presumen de sus algoritmos de IA para tomar decisiones bursátiles, pero estos sistemas podrían ser menos avanzados de lo que parecen

Cada día, los ordenadores realizan millones de transacciones bursátiles electrónicas mediante delicados cálculos que intentan extraer una diminuta ventaja en términos de velocidad o eficiencia. Los algoritmos que utilizan estas máquinas son cada vez más inteligentes y autónomos, los que les permite tomar decisiones cada vez más importantes.

Muchas de las mejoras que están viviendo estos algoritmos nacen de la inteligencia artificial (IA). Por eso, tanto algunas agencias mercantiles ya establecidas como un puñado de start-ups están explorando si tales técnicas bursátiles podrían ayudarles a superar a los otros operadores financieros. En este punto, cabe preguntarse, ¿está la IA alterando la dinámica habitual de los mercados financieros?

Hace ya años que los fondos de riesgo empezaron a usar enfoques algorítmicos para lograr mejores decisiones basadas en datos, frente a aquellos que se estructuran en una mera intuición humana. Entre ellos destacan Bridgewater Associates, Renaissance Technologies, D.E. Shaw, y Two Sigma, cuyos modelos algorítmicos se están aprovechando cada vez más de la IA.

El interés por esta ciencia es cada vez mayor, en parte, gracias a nuevas técnicas como el aprendizaje de máquinas. Entre ellas destaca el aprendizaje profundo, que consiste en entrenar a una gran red neuronal para reconocer los patrones dentro del conjunto de datos. El aprendizaje profundo ya ha logrado que los ordenadores interpreten imágenes, texto y audio con una precisión casi humana (ver Aprendizaje profundo). Ahora, queda por ver si la IA podrá hacer lo mismo con los datos financieros.

Está claro que estos recientes progresos han captado la atención de los ingenieros financieros. Así lo demuestran las empresas congregadas en la última conferencia internacional de Sistemas de Procesamiento Informático Neuronal (NIPS, por sus siglas en inglés), celebrada en diciembre en Montreal (Canadá). El encuentro congregó a miles de investigadores académicos e industriales para analizar los progresos del desarrollo de nuevos algoritmos de aprendizaje de máquinas. Además de ellos, algunas de las empresas tecnológicas más grandes del mundo, entre las que se incluyen Google, Facebook, Microsoft, Apple, Amazon e IBM, pagaron por instalar mesas de reclutamiento, con la esperanza de convencer a los nuevos talentos más destacados para que trabajen para ellas. Pero casi la mitad de las empresas que lo hicieron no eran ni siquiera tecnológicas, sino fondos de cobertura y agencias financieras.

Una de las empresas presentes fue la gran agencia de inversiones AHL Man, que durante años se ha centrado en el uso de enfoques estadísticos para elaborar estrategias de inversión. Su director científico, Anthony Ledford, explica que la empresa ya está explorando si el aprendizaje profundo podría aplicarse a las finanzas. Ledford detalla: “Hemos designado una partida presupuestaria para realizar pruebas. Si todo sale bien, el aprendizaje profundo se empezará a aplicar en transacciones de prueba, al igual que otros enfoques de aprendizaje de máquinas”.

Las transacciones bursátiles parecen un sitio obvio para aplicar técnicas avanzadas de aprendizaje de máquinas, pero realmente no está claro si se puede comparar el retode encontrar sutiles patrones en los datos en tiempo real con, digamos, reconocer caras dentro de las fotografías digitales. “Es un problema muy distinto”, reconoce Ledford.

Los expertos académicos también hacen una advertencia. El profesor de aprendizaje de máquinas de la Universidad de Oxford (Reino Unido) Stephen Roberts cree que el aprendizaje profundo podría rendir bien a la hora de “extraer tendencias, informaciones y conexiones ocultas”, pero añade que “todavía es demasiado frágil como para lidiar con altas cantidades de incertidumbre y ruido, que son tan comunes en las finanzas”.

Roberts también señala que el aprendizaje profundo puede ser un proceso relativamente lento, y no puede ofrecer los tipos de comportamientos garantizados que ofrecen otros enfoques estadísticos. En general, opina que se ha creado cierto bombo alrededor de la idea de aplicar la IA a las finanzas. “La IA es es muy amplia y muchas técnicas estadísticas estándar se están reclasificando como IA y aprendizaje de máquinas”.

Dicho esto, puede que las nuevas agencias financieras que se anuncian como centradas en la IA hayan dado con algo. Estas incluyen Sentient, radicada en San Francisco (EEUU), Rebellion Research en Nueva York (EEUU) y una empresa de inversiones de Hong Kong (China) llamada Aidyia.

Uno de los usos más prometedores de la IA podría ser el procesamiento de datos de lenguaje natural desde artículos de prensa, informes corporativos y actualizaciones de redes sociales, que podría generar nuevas predicciones sobre el rendimiento futuro de empresas, divisas, bienes o instrumentos financieros.

Aidyia fue fundada por el conocido investigador de IA, Ben Goertzel, que también es el fundador de Hanson Robotics y el director de un proyecto de IA de fuente abierta llamado OpenCog. Aidyia empezó a operar el año pasado, y Goertzel dice que el enfoque de su empresa es mucho más ambicioso que las técnicas empleadas por la mayoría de los fondos de cobertura actualmente, al inspirarse en la programación evolutiva, la lógica probabilística y la dinámica caótica.

En una conversación con MIT Technology Review Goertzel afirmó: “Nuestro sistema ingiere una variedad de información, incluidos datos sobre precios y cantidades procedentes de bolsas de todo el mundo, noticias de varias fuentes en múltiples idiomas, datos macroeconómicos y sobre la contabilidad de la empresa, y mucho más. “Entonces estudia cómo estos factores se han interrelacionado históricamente, y aprende un conjunto de decenas de miles de modelos predictivos que parecen tener un valor predictivo, basándose en su estudio de los datos históricos”, que ayudan a guiar las inversiones de la empresa.

Desde luego existe una tendencia hacia aumentar la automatización entre agencias financieras. Preqin, una empresa que proporciona datos de la industria financiera, informa de que el 40% de los fondos de inversión de riesgo creados el año pasado fueron “sistemáticos”, lo que quiere decir que dependen de modelos informáticos para la toma de decisiones.

Pero no todos están convencidos de que una revolución de IA en las finanzas sea inminente. El multimillonario y CEO de otra empresa bursátil británica, Winton Capital Management, David Hardin, generalmente se siente escéptico acerca del bombo sobre el aprendizaje de máquinas y la IA. “Si mirara muy fijamente a Winton, diría que es más o menos lo mismo que llevamos haciendo durante los últimos 30 años”, asegura.

Harding también recuerda que un auge similar en el interés por las redes neuronales provocó la creación de muchas start-ups durante principios de la década de 1990. Hardin recuerda: “La gente empezó a decir: ‘Hay una increíble técnica informática nueva que diezmará todo lo anterior’. También hubo una moda de algoritmos genéricos”, y continúa:”Pues, le puedo decir que ninguna de estas comunidades existe hoy, ni rastro de ellas”.

Ledford, de AHL Man, también tiene unas palabras de cautela para cualquiera que crea que las últimas técnicas de aprendizaje de máquinas podría representar un atajo a la riqueza. “Es importante recordar la capacidad del mercado de dar lecciones de humildad”, advierte, “yo aconsejaría que no se dé demasiadas palmaditas en la espalda, pero igualmente no se desmoralice tampoco”.

 

Por Will Knight

Traducción: Teresa Woods

Fuente: technologyreview.es

Fuente: futurism.com

Traducción y adaptación: Luciano Salellas

Dentro de 100 años la biología humana habrá confluído con la biología sintética para hacer algo “más que humano”, la inteligencia artificial será como otra forma de vida y la edición genética estará tan cerca como el click de un botón.

(Esta es la parte 3 de una serie de 4 partes. Ver parte 1 aquí)

 

El mundo del mañana

Samsung ha publicado su reporte “Objetos inteligentes para la vida futura”. Es una seria visión de la topografía del futuro, al menos en términos de promesas tecnológicas, lo que significará para nuestras vidas y cómo viviremos. Es una extrapolación de las tecnologías actuales y sus predicciones inevitables, y es menos extravagante que otras, más delineada en realidades científicas y tiene un convincente halo de realidad.

Lo que es estimulante, porque son las cosas que Samsung hace, esto quiere decir que en el próximo siglo (aproximadamente) estaremos en un muy interesante viaje.

 

Inteligencia artificial y el advenimiento de una nueva especie

Si ya has sido advertido, actualmente ya tenemos robots que parecen vivos. De todas formas, la tecnología avanza en forma increíble. Y en 100 años, las cosas serán totalmente diferentes.

Los autores del reporte Samsung imaginan una edad del “posthumanismo”, donde tecnología y carne humana convergerán en crear una forma de vida sin precedentes en la historia de la Tierra. Con avances en computación cuántica, biotecnología, nanotecnología e inteligencia artificial, es seguro que esto se volverá realidad en algún momento en el próximo siglo.

Creando una interfaz neural directa con internet, la humanidad será capaz de “conectarse” y aumentar su propia inteligencia con la vasta capa de pensamiento de la Tierra a la que el filósofo francés Teilhard de Chardin llamó “noósfera”. Y, si los transhumanistas tienen razón, en la unión con la inteligencia artificial ingresaremos en una nueva etapa de la evolución. Al mismo tiempo, cuando esto suceda, estaremos listos para ver algunas cosas extrañas.

Tener nuestras mentes “on line” nos permitirá “subir” y “almacenar” la memoria en la red. Podremos accederla y reemplazarla como hacemos hoy con fotos y videos. Y ni hablar de la “telekinesis sintética” (la habilidad de controlar nuestras máquinas con el pensamiento) y la “telepatía sintética” (una posibilidad real si somos capaces de leer e interpretar las ondas cerebrales complejas). En este punto, la tecnología convergerá en algo casi mágico.

Man controlling a robotic arm with brain waves using BCI. Credit: OpenBCI

Hombre controlando un brazo robótico usando ondas cerebrales usando BCI. Crédito: OpenBCI

 

Y no nos olvidemos del “wetware” (cuerpo y mente carnal) que todavía transportamos con nosotros. Con los avances de tecnología de edición genética podremos adaptar nuestros cuerpos a nuestro gusto.

Cuando podamos realmente reescribir nuestro ADN seremos capaces de “descargar” cambios biológicos en nuestros genes y la evolución ya no necesitará esperar cientos, miles, ni millones de años para lograrlo. Seremos capaces de eliminar las enfermedades, evitar tratamientos innecesarios, prolongar nuestra vida e incorporar las mejores innovaciones biológicas de otras especies.

 

Pero, seguiremos siendo humanos?

 

Fuente: futurism.com

Traducción y adaptación: Luciano Salellas (Humai Ambassador)

A %d blogueros les gusta esto: