The Independent Sentinel #25

Falacias sobre la IA, algoritmos de inversión y los habitantes del Metaverso

¡Hola!

Soy Javier Fuentes, de Akoios. Gracias por estar leyendo esta nueva edición de “The Independent Sentinel”, la newsletter en la que contamos novedades e historias sobre Inteligencia Artificial y Ciencia de Datos.

Para recibir cada nueva edición directamente en tu bandeja de entrada, puedes suscribirte fácilmente aquí:

En esta edición hablamos de falacias sobre la Inteligencia Artificial, de máquinas que invierten en Capital Riesgo y de realidades paralelas.

¡Arrancamos! 🔥


 🎼 Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

🤔 Cuatro falacias sobre la Inteligencia Artificial

En el mundo de la investigación es común encontrarse con expectativas irreales y con ideas equivocadas que, al igual que los rumores, se extienden y se asientan rápidamente entre la población en forma de memes imperecederos.

En el excelente paper “Why AI is Harder Than We Think” publicado este año, Melanie Mitchell (Santa Fe Institute, NM, USE) explica que, pese a lo prometedor de los avances que estamos viviendo en este ámbito, aún nos queda un largo camino -no estrictamente de avance continuo- que recorrer.

La razón principal para esta afirmación es, en opinión de la autora, nuestra falta de conocimiento sobre la verdadera naturaleza y funcionamiento de la inteligencia humana.

Para soportar este argumento principal, Mitchell basa su razonamiento en torno a cuatro falacias ampliamente extendidas:

Desmontando la falacia #1

Tal y como ya vimos en ediciones anteriores, tenemos dos grandes “tipos” de Inteligencia Artificial, la Inteligencia Artificial “Estrecha” (ANI - Artificial Narrow Intelligence) y la Inteligencia Artificial “Amplia” (AGI - Artificial General Intelligence).

  • La ANI se refiere a la capacidad de una maquina para realizar una única tarea excepcionalmente bien.

  • La AGI tiene que ver con la habilidad de las máquinas para llevar a cabo cualquier tarea que un humano pudiese hacer.

Pese a que los avances en ANI son de utilidad para el avance del la AGI, no se puede asegurar que haya un continuum entre ambas y que, eventualmente, la ANI desemboque en la AGI.

Es muy posible que descubramos que ambas inteligencias son de naturaleza distinta y que el camino hasta que perfeccionemos su imitación pueda ser radicalmente diferente.

Por ello, aunque en su momento Deep Blue o el más reciente éxito de GPT3 (ambos casos de ANI) nos hayan asombrado, esto no tiene por qué implicar estrictamente que estemos más cerca del Santo Grial de la AGI.

Desmontando la falacia #2

Este un claro caso de sesgo de conocimiento por el que se asume que, si algo es fácil para nosotros, también debería serlo para otras personas -o máquinas-. Esta falacia es fácilmente desmontable. Basta con que le pidas a un niño de 3 o 4 años que te clasifique un conjunto de imágenes en dos grupos:

  1. Fotos dónde aparecen animales

  2. Fotos dónde no aparecen animales

Casi con toda seguridad, el niño será capaz de resolver el problema sin mayores dificultades.

Si por el contrario deseas que una máquina haga este mismo ejercicio, deberás entrenar con miles de imágenes etiquetadas un modelo de Deep Learning hasta poder obtener un resultado equivalente. Este es un claro ejemplo de que lo que es fácil para un humano no tiene por qué serlo para una máquina.

Desmontando la falacia #3

Los humanos tenemos una tendencia natural a otorgar capacidades humanas a animales y a máquinas. Por ello, usamos palabras que describen nuestras actividades para referirnos a tareas similares en otros ámbitos.

Por ejemplo, pensamos en términos de “aprendizaje”, “lectura” o “pensamiento” cuando estamos evaluando una Inteligencia Artificial pero seguramente estas no sean las palabras que describan de forma precisa lo que realmente un modelo de IA está haciendo al generar una predicción.

Desmontando la falacia #4

Según Mitchell, la inteligencia no es algo que resida únicamente en nuestra cerebros, sino que requiere de una parte física para funcionar. En nuestro caso, necesitamos información del exterior de manera continua -que recibimos a través de nuestros sentidos- para poder construir nuestra inteligencia.

Como se puede comprobar, el artículo da pie a otro debate muy interesante: ¿Debemos intentar replicar nuestra Inteligencia o debemos trabajar para crear una Inteligencia diferente -y superior- a la nuestra?

📈 Algoritmos Inversores

Como fundador de una startup, tengo un interés genuino en entender cuáles son las mecánicas que llevan a un determinado fondo de inversión o Business Angel a decidir llevar a cabo una operación.

Las decisiones de inversión en startup son sumamente complejas debido a varios factores:

  • Es muy complicado procesar toda al información (estructurada y no estructurada) que está disponible sobre la operación.

  • Todas las personas tenemos sesgos y prejuicios que afectan a nuestra racionalidad.

  • El mercado es un sistema extremadamente complejo que hace muy difícil poder predecir el éxito de una iniciativa a priori.

A la vista de todo esto, ¿cómo se debería invertir? ¿se podría automatizar la toma de decisiones de inversión?

En este interesantísimo paper se hace comparación entre los resultados de inversión obtenidos por 255 Business Angels en comparación con un algoritmo de Machine Learning. Los resultados son sorprendentes:

En promedio, tras el estudio la TIR de las inversiones de los Business Angels fue de 2.56% frente al 7.26% obtenido por el algoritmo 🤯

Mirando con más detalle los resultados, se desprende que únicamente los Business Angels con mayor experiencia y menos sesgados fueron capaces de batir el resultado del algoritmo.

Como se deduce del estudio, la inversión (y especialmente la inversión en Capital Riesgo) tiene un importantísimo factor humano donde la experiencia marca la diferencia. ¿Se podría decir entonces que el algoritmo logró adquirir esa experiencia en su entrenamiento? A la vista de los resultados, parece que sí.

2. Historias 📔

Los habitantes del Metaverso

🕹 La IA en los videojuegos

Desde hace décadas, la inmensa mayoría de los videojuegos han venido usando de un modo u otro la Inteligencia Artificial. Antes incluso de la aparición del archiconocido Pong, ya se habían creado las primeras Inteligencias Artificiales aplicadas a juegos.

La primera IA creada para un juego de la que se tiene constancia fue creada en 1939 para jugar al Nim, un juego matemático de origen chino conocido como “Tsyanchidzi” o “El juego de recoger piedras”. La mecánica del juego es muy sencilla, basta con colocar 20 elementos (piedras, cerillas, monedas…) en fila e ir retirando por turnos entre una y tres unidades. El que retire el último elemento, perderá la partida.

Edward Condon, el creador de está máquina llamada Nimatron, la presentó en la Feria Internacional de Nueva York en 1940. El Nimatron era una computadora digital compuesta por relés electromecánicos que manejaban un conjunto de luces que representaban los elementos del juego.

La creación del Nimatron dio paso a máquinas más sofisticadas como el Nimrod, el primer computador construido para ejecutar un videojuego que, por cierto, era capaz de vencer sin demasiadas dificultades a sus contrincantes humanos.

Ya entre los años 50 y 60, llegaron los primeros programas capaces de jugar al ajedrez y a las damas, programas que alcanzaron su cenit en 1996 con la derrota de Kasparov ante Deep Blue.

Más cerca en el tiempo, en los años 70, aparecieron videojuegos tan conocidos como el mencionado Pong o Space Invaders en los que nuestros contrincantes o enemigos estaban gobernados por una Inteligencia Artificial básica. Cabe destacar que esta Inteligencia Artificial tenía un carácter puramente algorítmico y que, siendo estrictos, ésta no podía ser consideradas del mismo modo que la IA tradicional y académica que solemos tratar aquí.

Desde principios de los años 80 hasta nuestros días se ha producido un imparable avance en la sofisticación de estas Inteligencias Artificiales. De manera gradual, se han ido complementando las técnicas algorítmicas y heurísticas con modelos más sofisticados y más asimilables al concepto general de Inteligencia Artificial que manejamos (árboles de decisión, pathfinding, máquinas de estados, etc.).

Como resultado, actualmente la Inteligencia Artificial en los videojuegos abarca un enorme conjunto de técnicas clasificables en dos grandes grupos:

  • Algorítmicas: Programas que ejecutan una serie de tareas específicas.

  • IA Tradicional : Programas diseñados para aprender a ejecutar unas tareas específicas.

Todas estas técnicas tienen un único fin, generar comportamientos receptivos y adaptativos para dotar de una aparente inteligencia a unos personajes muy especiales: Los Personajes No Jugadores o NPC (Non-Player Characters).

🤖 Personajes No Jugadores

Un Personaje No Jugador es cualquier personaje en un juego que no está controlado por un jugador. Estos personajes sirven a diversos propósitos:

  • Actuar como enemigos

  • Asistencia al jugador

  • Avance de la trama

  • Funciones del juego: Compras, curación, acompañamiento…

Pese a que el concepto engloba a cualquier personaje no controlado por los jugadores, suele estar ligado a personajes neutrales y aliados. El término tiene su origen en el celebérrimo juego de mesa de fantasía Dungeons & Dragons donde se menciona este término por primera vez.

En su edición de 1979, la guía D&D resalta la importancia de disponer de estos personajes para enriquecer y facilitar la labor del director del juego (El Game Master):

“It is often highly desirable, if not absolutely necessary, to have well-developed non-player characters (NPCs)”

Originalmente, estos personajes eran manejados por el director del juego y, gradualmente, con la aparición de los videojuegos, este manejo ha ido pasando a manos de Inteligencias Artificiales de muy variable sofisticación.

Los NPCs tienen fama histórica de torpes. Esto tiene su origen en lo peculiar de su comportamiento: Repetición de las mismas frases, movimientos mecánicos por las mismas rutas y reacciones en ocasiones absurdas.

Esto ha dado lugar a muchísimos memes en la cultura popular. Sirva como ejemplo la famosa frase “I took an arrow in the knee” del fantástico juego The Elder Scrolls V: Skyrim.

Pese a lo que pueda parecer, los NPCs son cada vez más sofisticados y, sin duda, serán de vital importancia en los nuevos mundos que se están creando y donde cada día pasamos más tiempo: Los Metaversos.

🪞Metaversos: Las realidades alternativas

Tal y como contábamos en TIS #20, las historias que creamos acaban modelando nuestra realidad. En Snow Crash, una novela de ciencia-ficción de 1992, Neal Stephenson acuño el término de Metaverso, un universo online, multi-usuario, inmersivo y digital donde se puede interactuar y socializar con otras personas.

El rasgo principal de estas realidades virtuales es que son persistentes, esto es, siguen existiendo y siguen ocurriendo cosas en ellos independientemente de que tú, como jugador, estés conectado o no.

Pese a lo novedosa que pueda parecer esta idea, la idea de los metaversos lleva entre nosotros más tiempo del que se podría pensar. El primer mundo virtual data de 1978 y se denomina MUD (Multi-User Dungeon).

MUD es un juego de exploración conversacional en modo texto al que se considera como el primer juego de rol online. Si tienes curiosidad, todavía es posible jugar. El objetivo es sencillo: tras la creación de un personaje, tendrás que convertirte en un mago encontrando tesoros y enfrentándote a otros jugadores. ¡Todo esto en modo texto!

Aproximándonos algo más a nuestros tiempos, es posible resaltar algunas conocidas aproximaciones al concepto de metaverso:

Pese a que, como se muestra arriba, los videojuegos han sido la punta de lanza en el desarrollo de los metaversos, éstos no tienen porqué ser en su totalidad espacios dedicados al entretenimiento.

El concepto de metaverso va mucho más allá y abarca la socialización a niveles que exceden el mero acto de jugar: conversar, ir a clase, comprar o asistir a una representación teatral virtual pueden ser acciones que eventualmente hagamos en esta realidades paralelas.

Pese a estas aproximaciones en el mundo del videojuego, hay personas que piensan que el metaverso aún está por llegar y que será algo mucho más profundo y más complejo que tendrá un impacto muy significativo en nuestra civilización.

A este respecto, en este fantástico artículo Matthew Ball describe el metaverso como la evolución futura de lo que hoy llamamos Internet. En sus palabras, en vez de conectarnos a Internet, estaremos en Internet, un universo paralelo en que desarrollaremos gran parte de nuestra vida.

“The Metaverse is an expansive network of persistent, real-time rendered 3D worlds and simulations that support continuity of identity, objects, history, payments, and entitlements, and can be experienced synchronously by an effectively unlimited number of users, each with an individual sense of presence”

- Matthew Ball

La imagen de abajo describe los pilares sobre los que Ball cree que se asentará el desarrollo de este metaverso definitivo y, como veremos, la IA jugará un papel clave en el desarrollo de varios de ellos.

💬 La IA y los habitantes del Metaverso

Eventualmente todos formaremos parte de algún metaverso y, con toda seguridad, parte de nuestra vida transcurrirá en estos entornos artificiales.

Estos mundos estarán poblados por personas pero también por multitud de personajes dotados de Inteligencia Artificial (Los PNJs de los que hablábamos con anterioridad) que nos guiarán y nos ayudarán a interactuar con todo lo que sea ofrezca en el metaverso.

La Inteligencia Artificial será un elemento clave no solo para la creación de los PNJs, sino también para otros fines. Algunos posibles ejemplos:

  • Storytelling y Asistencia: Los PNJs usarán modelos NLP (Natural Language Processing) para proporcionarnos explicaciones personalizadas o responder a nuestras dudas.

  • Apariencia: La creación de avatares fotorrealistas para los participantes y los PNJs estará soportada por modelos de IA. Sirva como ejemplo el proyecto MetaHuman de Epic:

  • Soporte: La IA podrá dar apoyo a los humanos para llevar a cabo tareas tediosas, repetitivas o aburridas que tengan lugar en el metaverso.

  • Sustitutos: Dada la persistencia de estos mundos, será común delegar en bots ciertas de nuestras responsabilidades en aquellos momentos en los que no estemos conectados.

  • Customización: El aprendizaje sobre nuestras preferencias por parte de una IA facilitará poder ofrecer experiencias adaptadas a los gustos de cada jugador.

  • Generación de entornos: Al igual que para la generación de personajes, la IA facilitará el diseño y creación (incluso dinámica) de territorios virtuales dentro del metaverso.

Dadas las múltiples áreas de aplicación de la IA en este ámbito, tiene sentido pensar que el crecimiento de los metaversos estará fuertemente ligado al avance y al crecimiento de la IA.

Aunque puede que aún estemos a décadas de ver metaversos inmersivos y complejos que permitan interactuar de manera sofisticada en un mundo persistente, parece que hay una tendencia inexorable que nos dirige hacia ese futuro.

Si te paras a pensar, cada día pasamos más tiempo conectados a un proto-metaverso llamado Internet a través de una creciente variedad de dispositivos con una creciente variedad de fines. A través de móviles, relojes, ordenadores y hasta electrodomésticos nos conectamos para trabajar, relacionarnos, aprender, cocinar, hacer la compra o realizar una transferencia bancaria entre muchísimas otras cosas.

Parece que, de algún modo, ya estuviéramos listos para ir al metaverso y que lo único que nos falta es un empujón tecnológico que, por fin, haga realidad la idea de un mundo paralelo. Un mundo que, pese a ser virtual, puede que se convierta en el lugar en el que acabemos viviendo. Si esto es algo bueno o no, es un pregunta que no me atrevo aún a responder.

¡Gracias como siempre por leer hasta aquí!


¿Te gusta The Independent Sentinel? ¡Comparte la publicación para ayudarnos a llegar a más gente!

Share The Independent Sentinel

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 ¿Quieres conocer nuestra tecnología Titan? No te pierdas nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #24

3Dificación, el fin de los programadores y las nuevas leyes de la robótica

¡Hola!

Soy Javier Fuentes, de Akoios. Te doy la bienvenida a esta nueva edición de “The Independent Sentinel”, la newsletter que en la que hablamos sobre Ciencia de Datos combinando noticias, tendencias, herramientas e historias.

Si quieres recibir cada nueva edición en tu email, puedes suscribirte fácilmente aquí:

Hoy hablamos de visión 3D, de un asistente para programar y de un escritor que vivía en el futuro.

¡Allá vamos! 🔥


 🎼 Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

🏞 La “3Dificación”

Desde las primeras ediciones, hemos venido viendo como el Machine Learning tiene multitud de aplicaciones en el ámbito del tratamiento de las imágenes: reconocimiento de textos, detección de objetos, identificación de caras, colorización de fotografías, etc.

Todas estas aplicaciones tendrían cabida dentro del concepto “Visión Artificial”, categoría que también englobaría a uno de los mayores retos de esta disciplina: La Visión 3D.

De manera muy resumida, la visión 3D tiene como fin emular la visión humana, objetivo para el que se debe disponer de una habilidad clave: poder generar un modelo tridimensional de la realidad a partir de una imagen 2D.

La capacidad de percibir la profundidad de manera adecuada es un rasgo evolutivo (del que no hay claros orígenes) presente en los humanos y en ciertos animales. En nuestro caso, tener los ojos relativamente cerca, permite al cerebro superponer ambas imágenes y generar la percepción de profundidad. Por el contrario y como ejemplo, los ciervos pertenecen al tipo de animales que tienen los ojos situados hacia los lados, hecho que empeora su percepción de profundidad, pero mejora su visión panorámica (algo muy útil para identificar depredadores).

Existen diversas técnicas para poder detectar la profundidad de los elementos en una imagen, tales como los sistemas estereoscópicos, el uso simultáneo de varias cámaras o sistemas basados en el “tiempo de vuelo”.

Como ejemplo de imágenes estereoscópicas, es posible que recuerdes el célebre libro “El ojo mágico” en el que se podían ver formas en 3D “cruzando” la vista.

En el ámbito de la tecnología, la visión 3D juega un rol fundamental, sirvan como ejemplo los modelos de procesamiento de imagen utilizados en los vehículos autónomos donde, como se podría suponer, percibir la profundidad es de vital importancia.

El año pasado, un equipo compuesto por investigadores de Virginia Tech, Facebook y la Universidad Nacional de Tsing Hua en Pekín, presentó una novedosa técnica para generar imágenes 3D a partir de imágenes RGB-D.

La parte más interesante es que, usando métodos basados en CNN (Redes Neuronales Convolucionales) y otras técnicas, son capaces de trabajar las diversas capas y de “rellenar” de manera artificial aquellas partes ocultas por la superposición de las mismas.

Cómo se ve en el ejemplo, esta técnica es capaz de sintetizar colores, texturas y formas en las partes “ocultas” de la imagen. Increíble 🤯

Nada mejor que unos algunos ejemplos para ver los resultados:

Si tienes curiosidad, puedes acceder al código aquí y a un ejemplo en Colab aquí para generar tus propias imágenes 3D.

👉🏻 ¿Te gustaría poder convertir este modelo en una API para poder usarlo en una aplicación o integrarlo con otro software? Con nuestra herramienta Titan puedes hacerlo muy fácilmente. Solicita una demo aquí.

🦾 Un Copiloto para escribir código

En la aún corta historía del software, ha habido algunas metodologías y técnicas de desarrollo que han adquirido cierta relevancia. Una de estas técnicas es conocida como Pair Programming (programación por parejas) y consiste en la colaboración simultánea de dos programadores trabajando sobre el mismo código en una sola máquina.

Hace unas semanas un terremoto sacudió el mundo del desarrollo software. GitHub, la famosa plataforma de desarrollo colaborativo adquirida por Microsoft en 2018, presentaba una nueva y llamativa herramienta: Copilot.

Copilot es una tecnología de Inteligencia Artificial desarrollada por GitHub y OpenAI (Los creadores de GPT-3) que pretende emular el rol de un compañero de programación por pares.

Copilot usa un nuevo modelo de generación de código llamado Codex creado por OpenAI. Se podría pensar en Codex en un GPT-3 específicamente preparado y entrenado para crear código fuente.

Codex ha sido entrenado de la mejor forma imaginable, que no es otra que usando los terabytes de código público alojado, obviamente, en GitHub. Una combinación perfecta se mire por donde se mire.

Lo cierto es que, a primera vista, los resultados son casi mágicos. Copilot es capaz de generar funciones de cierta complejidad, proponer tests o hacer scaffolding. Todo esto simplemente analizando el contexto del código que estás escribiendo.

El lanzamiento de Copilot ha suscitado cierta controversia y alarmismo en el mundo del software por las posibilidades que este tipo de herramientas abre. Muchos opinan que esto acabará reduciendo la demanda de profesionales. Personalmente pienso que esto no será así, sino que, al menos en el medio plazo, estas soluciones ayudarán a hacer más eficientes a los programadores.

Aunque creo firmemente que aún queda un larguísimo trecho para poder reemplazar a los programadores, sí que es cierto que estos avances comienzan a hacer que nos planteemos algunas ideas contraintuitivas respecto al impacto de la IA en la masa laboral. Baste como ejemplo, esta idea que plantea Sam Altman:

El tiempo dirá, mientras tanto haré lo posible por usar Copilot y ver si realmente está a la altura de las expectativas que ha levantado.

2. Historias 📔

🔮 Profecías autocumplidas

En anterior ediciones hemos hablado de cómo las historias acaban en cierta medida dando forma al futuro en una suerte de profecía autocumplida.

Solo con echar un vistazo al pasado reciente, es posible identificar a varios creadores de historias que, sin saberlo, estaban anticipando lo que vendría:

  • Julio Verne -entre otras muchísimas cosas- comenzó a vislumbrar los viajes espaciales con su novela De la terre à la lune que inspiró también el famoso filme de Méliès.

  • Arthur C. Clarke describió de manera precisa los viajes espaciales en su 2001: A Space Odyssey un año antes de que el hombre viajase a la luna.

  • Aldous Huxley en su celebérrima Brave New World (Un Mundo Feliz) ya adelantaba el advenimiento de la Ingeniería Genética.

  • Ray Bradbury, en la distópica Fahrenheit 451, publicada en 1953 anticipaba el uso de unos auriculares internos asimilables a nuestros actuales AirPods y similares.

Seguramente estés echando en falta a algún autor y, si estás pensando en Inteligencia Artificial y Robótica, probablemente la persona que tienes en mente es nuestro protagonista de hoy: el gran Isaac Asimov.

👨🏼‍🏫 El profesor que vivía en el futuro

De orígenes rusos, Asimov emigró a Estados Unidos con sus padres en 1923, cuando apenas tenía 3 años. Su familia se instaló en el barrio neoyorquino de Brooklyn donde Isaac creció.

Como tantos otros personajes que han pasado por The Independent Sentinel, Asimov fue desde niño un ávido lector y un autodidacta, mecanismo que consideraba el único método de aprendizaje real.

"Self-education is, I firmly believe, the only kind of education there is. The only function of a school is to make self-education easier; failing that, it does nothing."

Su voracidad lectora se pudo ir saciando gracias a que sus padres regentaban varios kioskos donde, además de dulces, vendían prensa y todo tipo de revistas.

Pese a que se graduó como Doctor en Bioquímica en 1948 y llegó a ser profesor en la Universidad de Boston, la verdadera pasión de Asimov era la escritura. A los 17 años ya había publicado su primer historia corta de ciencia-ficción y siguió escribiendo ininterrumpidamente toda su vida, incluso en el periodo de tres años en el que sirvió en el ejercito durante la Segunda Guerra Mundial.

Durante su carrera como escritor, Asimov publicó más de 500 obras y 90000 cartas, combinando ciencia-ficción con publicaciones de carácter puramente científico. Su fama comenzó a crecer impulsada por el éxito de algunas de sus historias cortas como NightFall, la historia de un planeta en el que se hacía de noche sólo una vez cada 2049 años.

Su consolidación como escritor vino de la mano de la publicación de su obra magna, la trilogía de la Fundación, en la que cuenta la historia de un Imperio Galáctico.

Esta trilogía forma parte de un Universo aún más grande creado por Asimov llamado la “Saga de la Fundación” y que se compone de 16 libros escritos entre 1942-1957 y 1982-1992.

En la sociedad futura que Asimov describe, hay una constante que define y condiciona la realidad: La existencia de los robots y su relación con los humanos.

📟 Las máquinas y nosotros

A Asimov se le atribuye la creación de la palabra Robótica para describir a la disciplina de diseñar y fabricar de robots. En su universo, los robots son considerados como armas de doble filo. Por una parte son considerados útiles y necesarios, pero por otra, no dejan de plantear una amenaza latente para la humanidad.

Con esta premisa, Asimov concibió las famosas 3 Leyes de la Robótica, una idea con un potencial narrativo ilimitado y, seguramente, la creación -más allá de sus novelas- por la que será recordado. Estas son las 3 Leyes:

Primera leyUn robot no puede hacer daño a un ser humano ni, por inacción, permitir que un ser humano sufra daño.

Segunda leyUn robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas entren en conflicto con la primera ley.

Tercera leyUn robot debe proteger su propia integridad, siempre y cuando esto no impida el cumplimiento de la primera y segunda ley.

Asimov tenía una visión antropomórfica de la IA e imaginaba un futuro en el que conviviríamos con robots de apariencia humana a nuestro servicio debidamente programados para no causarnos ningún daño siguiendo las 3 Leyes.

Como muchas veces hemos comentado, el futuro es impredecible. Asimov no estaba desencaminado al pensar en estos robots humanoides (tenemos ejemplos como Asimo entre muchos otros) pero el avance de la robótica se ha ido ramificando de manera inesperada: electrodomésticos, vehículos autónomos, drones militares, brazos industriales…

Igualmente, Asimov planteaba un futuro en el que la IA estaba contenida y se aplicaba a través de estos robots humanoides. Era muy difícil haber predicho que la aplicación masiva, ubicua y omnipresente de la IA llegaría de la mano de una disciplina que estaba comenzado a desarrollarse: El Software.

A día de hoy, la IA es aplicada en muchas de las aplicaciones, juegos y programas que usamos en nuestra vida diaria, la mayoría de las veces de un modo invisible para nosotros. Las recomendaciones de nuestra plataforma de streaming, los anuncios que vemos, los chatbots con los que interactuamos o los contenidos que vemos en las redes sociales son ejemplos de uso de la IA.

En este nuevo escenario en el que el Software es el principal driver del avance de la IA y donde la variedad y especialización de los robots -en formas y usos- es increíblemente amplia surgen nuevas preguntas.

  • ¿Deberían estar los algoritmos sujetos a algún tipo de Leyes como las que hemos visto?

  • ¿Qué ocurre con la robótica para fines militares? ¿Sería inviable si se aplicasen las 3 Leyes clásicas?

  • ¿Debería cumplir las Leyes un nanorobot fabricado con ADN y proteínas que, eventualmente, pasase a ser parte de tu organismo?

  • ¿Cómo se debería tratar la cibernética (en términos de uniones hombre-máquina)?

Como siempre, la realidad supera en complejidad y matices a la ficción. ¿Cómo podrían actualizarse las Leyes de la Robótica a nuestra realidad?

🙇🏻‍♂️ Las nuevas leyes de la Robótica

Las preocupaciones respecto a la regulación de la robótica y la IA no han hecho más que comenzar y, muy probablemente, comencemos a presenciar un creciente debate público en torno a estos temas.

Algunos autores como Frank Pasquale, experto en los aspectos legales de la IA/ML, proponen un nuevo conjunto de leyes con un enfoque centrado en la colaboración humano-máquina. Estas son las leyes que propone:

Nueva primera leyLa IA debe complementar a los profesionales, no reemplazarlos.

Nueva segunda leyLos sistemas robóticos y la IA no deben llevarnos al engaño mediante la imitación.

Nueva tercera leyLos sistemas robóticos y la IA no deben intensificar las carreras armamentísticas.

Nueva cuarta ley: Los sistemas robóticos y la IA siempre deben indicar la identidad de su creador, su controlador y su dueño.

Independientemente de la opinión sobre las leyes propuestas por Pasquale, el debate está servido. Habrá personas que piensen que este tipo de leyes pueden suponer un freno a la innovación y al avance científico y económico, mientras que otras piensen que hay que ser aún más estrictos para protegernos de las máquinas y de sus efectos en nuestras sociedades.

En mi opinión, los marcos regulatorios y legales en este ámbito deberían ir encaminados a proteger y fomentar los intereses de la humanidad y el avance científico-técnico (uno de los motores de progreso de nuestra civilización) sin, en ningún caso, dejar de velar por la integridad, seguridad y libertad de todos y cada uno de sus individuos que pueblan la tierra.

Posiblemente haya pecado de ambicioso con esta aseveración pero, puestos a imaginar el futuro, hagámoslo con la vista puesta en el mundo en el que nos gustaría vivir y en el que, de un modo u otro, acabaremos conviviendo con las máquinas como ya predijo Asimov.

¡Gracias como siempre por leer hasta aquí!

The Independent Sentinel volverá en Septiembre con más novedades, curiosidades e historias. ¡Qué pases un feliz verano!


¿Te gusta The Independent Sentinel? ¡Comparte la publicación para ayudarnos a llegar más apasionados de la Ciencia de Datos!

Share The Independent Sentinel

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 ¿Quieres conocer nuestra tecnología Titan? No te pierdas nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #23

Máquinas que se entrenan a sí mismas, generación de leyendas y el genio más despistado de la historia

¡Hola!

Soy Javier Fuentes, de Akoios. Bienvenido a esta nueva edición de “The Independent Sentinel”, la newsletter en español sobre Ciencia de Datos que publicamos mensualmente.

Recuerda que, si quieres recibir cada publicación en tu email, no tienes más que suscribirte en este botón:

En esta ocasión vamos a hablar del auto-aprendizaje, de un modelo que entiende las imágenes y del padre de la cibernética.

¡Arrancamos! 🚣🏻‍♀️


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

Un futuro sin etiquetas 🏷

Desde hace casi una década, los modelos de Aprendizaje Profundo (Deep Learning) están siendo los principales responsables de los avances en el ámbito de la Inteligencia Artificial y parece que, al menos durante algunos años más, esto seguirá siendo así.

La popularidad del Deep Learning comenzó en 2012, cuando el célebre investigador Geoffrey_Hinton -conocido por mucho como el “Padrino de la IA”- publicó junto con su equipo sus avances en Redes Neuronales Convolucionales (CNNs).

Los modelos basados en CNNs han gozado -y lo siguen haciendo- de una extraordinaria popularidad para tareas como el reconocimiento facial, la detección de objetos o la clasificación de imágenes.

A pesar de su potencia y utilidad, el propio Hinton reconoció algunas limitaciones en el caso particular de la detección de objetos. El problema que identificó es que las CNNs tienen dificultades para lidiar con los cambios de puntos de vista sobre un objeto (como una rotación o un escalado), cambios que, al producirse, hacen caer en picado el rendimiento de estos modelos.

Incluso cuando los mejores modelos de detección tratan de detectar objetos en el mundo real, éstos experimentan una caída de rendimiento de más del 40%.

En el fondo, y según explica también Hinton, las CNNs no son capaces de interpretar los objetos que “ven” en las imágenes tal y como hacemos los humanos. Estos modelos carecen de nuestra habilidad natural para entender los conceptos de forma, solidez o persistencia de los objetos.

Además de esta limitación, hay una aún más clara: la necesidad de disponer de enormes cantidades de datos etiquetados para entrenar estos modelos de Deep Learning, lo que nos lleva a otro rasgo diferencial con respecto a nuestra forma de aprender.

Desde que somos pequeños, no aprendemos lo que es una casa mediante la visualización de cientos de ellas sino que, tras ver unas pocas, somos capaces intuitivamente de “clasificar” otras casas que nos son mostradas. Los humanos somos capaces de aprender por observación, algo que las máquinas -por ahora- aún no son capaces de hacer.

Cuando miramos un objeto, nuestro cerebro extrae las características (features) principales del mismo: ubicación, tamaño, color, forma. etc. Por ello, somos capaces de reconocer este mismo objeto en otros contextos a partir de estas características que tenemos registradas. Un mismo objeto puede ser radicalmente distinto para una máquina si se le es presentado desde una perspectiva distinta, sin embargo, nosotros seremos capaces de clasificarlo sin mayores problemas.

¿Cómo podríamos hacer que las máquinas aprendiesen de la forma tan eficiente que los hacemos nosotros? ¿Cómo podríamos reducir el número de datos requerido para entrenar los modelos?

El aprendizaje auto-supervisado

De manera general, podemos distinguir tres tipos principales de aprendizaje máquina:

  • Aprendizaje supervisado: Se usan datos de referencia para entrenar a los modelos e identificar patrones

  • Aprendizaje No Supervisado: Los modelos extraen patrones sin necesidad de usar datos de entrenamiento

  • Aprendizaje por Refuerzo: Los modelos aprenden del feedback para maximizar una recompensa

Intuitivamente, se puede pensar en utilizar técnicas de aprendizaje no supervisado para no tener que disponer de tantos datos para el entrenamiento pero lo cierto es que, en el ámbito de la visión artificial, los científicos de datos no han sido capaces de avanzar usando este tipo de aprendizaje.

Un problema adicional es que, en el caso de los modelos supervisados, necesitamos datos debidamente etiquetados y esta es una labor que, hasta el momento, ha venido requiriendo intervención humana lo que, obviamente, supone un problema de escalabilidad.

Afortunadamente, según Yann LeCun (científico jefe de IA en Facebook), puede que haya otro modo para solventar esto: El aprendizaje auto-supervisado: Modelos capaces de encontrar patrones en las imágenes por sí mismos sin intervención humana.

El aprendizaje auto-supervisado se basa en poder generar datos etiquetados de manera automática, solventado así la dependencia del etiquetado llevado a cabo por personas.

Este tipo de aprendizaje puede seguir siendo considerado como aprendizaje supervisado con la salvedad -nada desdeñable- del mecanismo de generación de etiquetas.

¿Cómo podría entonces un modelo entrenarse a sí mismo? En el caso de la visión artificial (e.g. reconocimiento de imágenes) con ideas tan interesantes cómo:

  • Rotación: El modelo se auto-alimenta con versiones rotadas (90º, 180º…) y automáticamente etiquetadas

  • Distorsión: Se generan imágenes distorsionadas

  • Colorización: Ídem pero coloreando las imágenes

  • Puzzle: Se divide la imagen en secciones y desordenándolos del mismo modo que los puzzles a los que jugábamos de niños

Como se demuestra una vez más, el ingenio puede ser el mejor aliado a la hora afrontar problemas complejos y, al igual que hemos encontrado estos modos en que los modelos se pueden entrenar a sí mismos, seguiremos encontrando formas de reducir las labores manuales relacionadas con el etiquetado.

Un generador de leyendas 🏞

Si nos pidiesen poner una leyenda a la imagen de abajo, diríamos algo parecido a lo siguiente:

Para conseguir este resultado, nuestro cerebro hace dos tareas:

  1. Entender las “partes” de la imagen: perro, sentado, césped

  2. Unir estas partes en una frase inteligible

Replicando este funcionamiento, existen modelos que desempeñan esta función. En los modelos más modernos, la primera tarea es llevada a cabo por una CNN mientras que la segunda es llevada a cabo por un Transformer.

El “alimento” para este tipo de modelos son datasets como Flickr8k que incluye 8000 imágenes debidamente etiquetadas (en este caso por humanos 😅).

En este enlace puedes encontrar el código fuente de un modelo de descripción de imágenes. Este es el resultado obtenido con una imagen nueva (el perrito) que ha sido presentadas al modelo:

Más allá de lo divertido de ver qué entiende el modelo en cada imagen, este tipo de sistemas de reconocimiento pueden resultar muy útiles, por ejemplo, para realizar descripciones en tiempo real del entorno a personas con problemas visuales.

👉🏻 Con nuestra herramienta Titan puedes desplegar fácilmente modelos como este usando un solo comando. ¿Quieres saber cómo hacerlo? Solicita una demo aquí.

2. Historias 📔

Un niño prodigio

Allá por 1906, la revista New York World publicaba un artículo llamado “The Most Remarkable Boy in the World” acompañado de una imagen de un niño alzado sobre una pila de libros.

El protagonista de la historia no era otro que Norbert Wiener, uno de los más influyentes matemáticos del siglo XX y responsable de muchos de los avances que han definido el mundo en el que hoy vivimos.

Norbert nació en 1894 en Missouri. Su padre, Leo Wiener, un reputado académico y lingüista especializado en la historia y en los idiomas, era además políglota -se dice que llegó a hablar de forma fluida más de 30 idiomas distintos- e influyó de forma determinante en su educación y su carácter.

El pequeño Norbert mostró signos de su excepcional inteligencia desde una edad muy temprana. A los 18 meses aprendió el alfabeto y a los 3 años ya era capaz de leer libros complejos.

A los seis años ya conocía los clásicos griegos y latinos, a poetas alemanes e incluso a Darwin. Como era de esperar, tras su intensiva formación en casa a cargo de su padre, accedió a la Universidad en 1906 donde estudió Griego, Alemán, Física, Matemáticas y Biología y se graduó Cum Laude con 14 años. Por si fuese poco, se doctoró con 18 años en Harvard con una disertación sobre lógica matemática que le acabaría llevando a Inglaterra para estudiar con el mismísimo Bertrand Russel y G.H Hardy, matemático del que ya hablamos en TIS #21.

Más adelante, y ya en la Universidad de Göttingen, tuvo el privilegio de colaborar con David Hilbert, otro buen conocido de los seguidores de esta newsletter. Wiener quedó muy impresionado con Hilbert al que se refirió como “El único genio real de las matemáticas”

Finalmente, en 1919, Wiener se convirtió en profesor del MIT, lugar en el que, merecidamente, se convirtió en leyenda.

Un genio despistado

Wiener era una de las personas más conocidas en el MIT, lugar donde impartió clase durante 30 años. Su severa miopía, su peculiar forma de andar y sus despistes, le granjearon la simpatía de profesores y alumnos del centro.

Hay multitud de anécdotas, algunas apócrifas, respecto a sus célebres despistes, baste la siguiente como muestra:

“Su despacho estaba apenas unos metros más allá del mío. Él venía regularmente a visitarme y a hablar. Cuando me cambié de despacho unos años después, Norbert vino a presentarse como si no nos conociésemos. No se había dado cuenta de que era la misma persona a la que frecuentemente visitaba; estaba en otro despacho, así que pensó que sería otra persona”


- Phyllis L. Block

Más allá de lo anecdótico, el trabajo que llevo a cabo durante su larga estancia en el MIT es abrumador. Muchos de sus estudios han tenido una influencia determinante en muy diversos campos tecnológicos. Wiener trabajó en ámbitos como los procesos estocásticos, el análisis armónico o el movimiento browniano, entre otras muchas cosas.

Durante la II Guerra Mundial, su trabajo sobre el apuntamiento automático de la artillería anti-aérea llevó a Wiener a trabajar en la teoría de la información de forma independiente a Claude Shannon y a inventar el llamado filtro de Wiener, herramienta de uso generalizado para detección de señales y reducción de ruido.

El origen de la cibernética

Pese a todas las aportaciones que hemos comentado, seguramente la más relevante en retrospectiva sea su definición del concepto de cibernética.

El término cibernética no es algo nuevo, es una palabra que ha existido desde que Platón la usara para referirse al gobierno.

Cibérnetica procede del término griego kubernetes (Κυβερνήτης)  que significa timonel, misma raíz de la que procede el término gobierno.

👉🏻 Seguramente el término Kubernetes te resulta familiar ya que da nombre a la conocida plataforma open-source usada para facilitar el escalado, despliegue y gestión de aplicaciones software. De hecho, esta es una de las tecnologías en las que está basada nuestra herramienta Titan.

Sin embargo, la acepción actual del término se debe al libro “Cybernetics” que Wiener publicó en 1948 y que tenía como subtítulo “Control y comunicación en el animal y en la máquina”.

Norbert descubrió que ciertos comportamientos inteligentes emergían de la interacción compleja de bucles de realimentación (feedback loops), de hecho, el uso actual del término feedback puede ser igualmente atribuido a Wiener.

La idea clave que Wiener alumbró es que este tipo de bucles de realimentación se encontraban en todos en seres vivos y que, estos mismos bucles, podrían también ser aplicables en las máquinas y lo que es mas importante, en las interacciones hombre-máquina.

Esta idea aparentemente simple, encerraba una noción revolucionaria para 1948: Que los animales y las máquinas podían operar por principios cibernéticos y que, por lo tanto, podrían tener un propósito.

En la fondo, la cibernética versa sobre tener un objetivo y actuar para conseguirlo. Para saber cuán cerca estamos del objetivo o si nos estamos acercando o alejando hace falta el feedback, término que Wiener definió de forma rigurosa.

La cibernética engloba la robótica, el control computerizado, las comunicaciones, la automatización y un sinfín de disciplinas y campos de investigación. La siguiente figura muestra la relación entre las mismas:

En la cultura pop, la cibernética ha sido usada en términos de la simbiosis entre el hombre y la máquina, unión capaz de mejorar de las capacidades humanas o de reparar daños irreversibles en los humanos. Siendo puristas, este uso sería poco riguroso ya que, como hemos visto, la cibernética versa sobre sistemas de control basados en la retroalimentación.

Los peligros de la Inteligencia Artificial

Wiener fue la primera persona en atisbar los potenciales peligros de la Inteligencia Artificial. En su última obra, God & Golem, Inc.: A Comment on Certain Points where Cybernetics Impinges on Religion, Wiener expresaba abiertamente su preocupación sobre el impacto de la automatización sobre la mano de obra, los dilemas éticos y los usos perniciosos de los avances tecnológicos.

La preocupación sobre estos asuntos levó a Wiener a abogar por el desarrollo de tecnologías orientadas a mejorar las capacidades en detrimento de aquellas que nos sustituyan o controlen.

Usando la mítica figura del Gólem como ejemplo, Wiener advertía de que, sin una adecuada programación y cautela, la IA se podría acabar convirtiendo en un arma de doble filo que, finalmente, nos acabaría cortando.

A día de hoy no tenemos respuesta aún para decidir si las preocupaciones de Wiener estaban justificadas, pero lo cierto es que este debate que él inició está más vivo que nunca.

Paradójicamente, puede que Wiener no pudiese ver con claridad en su día a día por su miopía pero, desde luego, supo ver más lejos y mejor que nadie lo que el futuro nos depararía.

¡Gracias como siempre por leer hasta aquí!


¿Disfrutas con The Independent Sentinel? ¡Comparte la publicación con aquellos a los que creas que les puede gustar!

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium o solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #22

La Ley de Huang, herramientas No-Code y el matemático favorito de Napoleón

¡Hola!

Soy Javier Fuentes, de Akoios. Gracias por estar leyendo esta nueva edición de “The Independent Sentinel”, la newsletter mensual dedicada a la Ciencia de Datos y a la Inteligencia Artificial.

Si quieres recibir este boletín puntualmente en tu bandeja de entrada, puedes suscribirte en este botón:

¡Suscríbete ahora!

En esta edición vamos a hablar de la Ley de los Rendimientos Acelerados, de programar sin saber de programación y de una expedición a Egipto.

¡Vamos allá! 🐪


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

📈 Tendencias: La Ley de Huang

En 2001 Ray Kurzweil, afamado inventor, empresario y científico presentaba la “Ley de los Rendimientos Acelerados” en su ensayo del mismo nombre.

La Ley de los Rendimientos Acelerados (LRA en adelante) describe cómo los avances tecnológicos se apoyan entre sí dando lugar a unos cada vez mayores -y más rápidos- avances futuros en un bucle de realimentación positiva.

En base a su análisis de la historia de la tecnología, Kurzweil dedujo que la evolución tecnológica no tiene un carácter lineal sino más bien un carácter exponencial.

En sus predicciones, Kurzweil estimaba que, en unas pocas décadas (sobre 2045), la Inteligencia Artificial superará a la inteligencia humana, momento en el que alcanzaremos La Singularidad: Ese punto de inflexión que, en sus palabras, representará una ruptura en el tejido de la historia humana:

Within a few decades, machine intelligence will surpass human intelligence, leading to The Singularity — technological change so rapid and profound it represents a rupture in the fabric of human history. 

La computación es uno de los mejores ejemplos para ilustrar la LRA. De hecho, esta Ley no es más que una generalización de la conocida Ley de Moore, formulada por Gordon E. Moore (cofundador de Intel) en 1965 que estimaba que, aproximadamente cada 2 años, se iría duplicando el número de transistores contenidos en un microprocesador.

La acertadísima observación de Moore se ha acabado convirtiendo en la Regla de Oro de la industria electrónica y, en cierto modo, ha supuesto una suerte de profecía autocumplida en un sector que ha ido evolucionando según esta previsión.

No obstante, se está empezando a cuestionar al Ley de Moore debido a que ya se están alcanzando los límites físicos (atómicos) en la miniaturización e integración de los transistores.

La historia tiende a repetirse y, casi 60 años después, se está comenzando a hablar de una nueva Ley, llamada en esta ocasión Ley de Huang al honor de Jensen Huang, CEO de Nvidia, una de las principales compañías en el sector de los semiconductores.

La Ley de Huang describe cómo las GPUs (muy utilizadas como ya sabes en Inteligencia Artificial) están avanzando más rápidamente que las CPUs y están más que doblando su rendimiento cada dos años. Una parte muy interesante de este crecimiento es que está siendo cimentado mediante avances tanto en hardware como en software.

Como ejemplo, el rendimiento de los chips de Nvidia se ha incrementado 317 veces en el ámbito de los cálculos relacionados con la IA entre 2012 y 2020.

De algún modo, pasar de la Ley De Moore a la Ley de Huang no hace más que confirmar la tendencia atisbada por Kurzweil en su LRA: Siempre que una tecnología se aproxima a algún tipo de barrera (en este caso los límites físicos), se acabará inventando una nueva tecnología o variante que permitirá seguir progresando incluso más rápidamente que antes.

En lo que respecta al mundo de la Ciencia de Datos, estos avances determinarán en gran medida el devenir de toda esta industria y su futura expansión. Del mismo modo que la Ley de Moore sacó a la Inteligencia Artificial de su particular invierno, es muy posible que la Ley de Huang acabe convirtiendo a la IA -si es que no lo es ya- en una disciplina ubicua y omnipresente en nuestras vidas.

🛠 Herramientas: El Mundo No Code

Poder desarrollar productos digitales sin necesidad de conocimientos técnicos (e.g. programar) ha sido un anhelo largamente perseguido.

Históricamente, siempre ha habido herramientas que nos han ido abstrayendo de la complejidad subyacente a una computadora, sirvan como ejemplo los Sistemas Operativos o los Lenguajes de Programación.

En los últimos tiempos se están realizado progresos relevantes para la “democratización” del desarrollo software. Estos avances se pueden englobar dentro del llamado Movimiento No Code, que agrupa a diversas plataformas y herramientas que ofrecen soluciones para programar sin necesidad de expertise técnico alguno.

Aún sin conocer el término No Code, seguro que te resultan familiares herramientas como Zapier (Integraciones), Shopify (E-commerce) o Airtable (Bases de Datos).

Todas ellas han realizado increíbles progresos y ofrecen fantásticas experiencias de desarrollo cada vez más flexibles y avanzadas.

Pese a todos estos avances, parece que lo mejor en este ámbito está aún por llegar y lo hará de la mano de la Inteligencia Artificial. Modelos como GPT-3 de los que ya hemos hablado en otras ediciones, se están convirtiendo en la pieza clave de un sistema No Code: El intérprete entre los humanos y los lenguajes de programación.

Los siguientes ejemplos ilustran el nivel de automatización que se está empezando a conseguir:

⌨️ Generación SQL

Como se puede ver en este ejemplo, GPT-3 puede ser usado para inferir una sentencia SQL sintácticamente correcta a partir de una pregunta expresada de manera natural:

💻 Generación de aplicaciones

En este mismo sentido, Microsoft (inversores de OpenAI -los creadores de GPT-3-) ha incluido a modo de prueba de concepto un mecanismo de autocompletado para su herramienta PowerApps que, aunque no sea puramente No Code, podría acelerar muchísimo los tiempos de desarrollo de sus usuarios. Puedes verlo en funcionamiento aquí.

🖼 Generación de layouts

En el caso de la programación web, se puede usar este mismo concepto para la generación automática de layouts. En el vídeo se muestra un ejemplo de esta idea a cargo de la empresa debuild.co, orientada justamente al desarrollo de Aplicaciones Web minimizando los esfuerzos de desarrollo:

Veremos a dónde llega todo este movimiento pero, a la vista de estos últimos avances, no podemos estar más que esperanzados con todo lo que está por venir. Eso sí, que nadie espere que desaparezcan los programadores de un día para otro. Seguirán con nosotros por mucho, mucho tiempo.

2. Historias 📔

Una expedición a Egipto 🏜

En 1798, Joseph Fourier (1768-1830), un joven profesor de la Escuela Politécnica de París, recibía un mensaje urgente proveniente del Ministerio del Interior de Francia:

"Ciudadano: el directorio ejecutivo, que tiene una necesidad particular de sus talentos y de su fervor, acaba de disponer de usted por el bien del servicio público. Debe prepararse y estar listo para partir apenas reciba la orden".

Apenas dos meses después, Fourier estaba zarpando en una expedición cuyo objetivo aún no anunciado no era otro que la invasión de Egipto para cerrar a los británicos el camino a la India.

La expedición estaba compuesta por más de 25.000 soldados y, lo que es más sorprendente: 167 científicos y artistas de todas las disciplinas: matemáticos, físicos, químicos, ingenieros, pintores e incluso músicos.

La presencia de este amplio abanico de no combatientes tenía un claro fin simbólico ya que reflejaba el compromiso de la Revolución Francesa con el progreso científico. El objetivo final de Napoleón era convertir Egipto en un protectorado francés y, para ello, no solo debía conquistarlo, sino que también debía ganarse la confianza de su población.

La expedición fue un éxito en sus inicios, tal y como como atestiguan la ocupación de Malta en 1798 o la toma de Alejandría y el Delta del Nilo el 1 de Julio de ese mismo año en la conocida Batalla de las Pirámides. Sin embargo, las cosas empeorarían para Francia tras la destrucción de su flota por parte del contraalmirante Nelson en la Batalla del Nilo, derrota que, finalmente, forzó el regreso de Napoleón a París.

Durante esta expedición, Napoleón descubrió las capacidades (científicas y políticas) de Fourier, de ahí que contase con él como consejero y asesor para incluso, en 1809, llegar a concederle el título de Barón. algo inusual para alguien de tan humildes orígenes como Fourier.

Pese al regreso de Napoleón, muchos de los expedicionarios -entre ellos Fourier- siguieron en Egipto. Durante estos años, Fourier llegó a ser gobernador de una parte del país y tuvo tiempo de fundar el Instituto Matemático de El Cairo antes de regresar a Francia en 1801.

La teoría del Calor 🏜

Durante su estancia en Egipto, Fourier no paró de pensar en el calor. Las altas temperaturas de la región y las propiedades curativas que Fourier creía que el calor tenía, le llevaron a plantearse dos preguntas principales: ¿Cómo se mueve el calor de un sitio a otro? ¿Cuál es la expresión matemática de estas leyes?.

El 21 de Diciembre 1807, Fourier presentó su trabajo sobre la teoría del calor en su memoria “Sobre la propagación del calor en cuerpos sólidos” frente un comité compuesto con varias celebridades científicas de la época, nada más y nada menos que LagrangeLaplaceMonge entre otros.

La noción matemática de Fourier acerca de cómo se comporta el calor, abrió la puerta a algo mucho más importante: comprender cualquier fenómeno que pueda describirse como una onda, como el sonido o la luz.

La tesis principal de Fourier es que una onda, por compleja que sea, puede ser expresada como la suma de varias ondas sinusoidales: El análisis armónico o análisis de Fourier había nacido.

El análisis de Fourier 🌊

Me atrevería a decir que nuestro mundo digital actual no existiría sin Fourier. Sus teorías han tenido impacto en campos tan diversos como la física, la combinatoria, el procesamiento de señal, la probabilidad, la estadística, el análisis numérico, la criptografía o la óptica entre muchísimos otros.

El análisis de Fourier consta de dos variantes o herramientas principales (muy bien conocidas para cualquiera que haya estudiado ingeniería, física o matemáticas):

Fourier y el Machine Learning 🤖

Como no podría ser de otro modo, la influencia del análisis del Fourier ha llegado también a la Ciencia de Datos en general y al Machine Learning en particular.

De hecho, es muy común usar la transformada de Fourier para

Se podría incluso mencionar un avance de este mismo mes, que versa sobre uso de la Transformada de Fourier para mejorar el rendimiento de los Transformers que tratamos con más detalle en TIS #20.

Como vimos, la principal limitación de los Transformers es el enorme coste computacional asociado a los mecanismos de Atención, ya que este coste crece de manera cuadrática en relación a la longitud de la secuencia bajo análisis.

En este paper publicado por investigadores de Google se demuestra que usando la transformada de Fourier es posible incrementar de manera significativa la velocidad de la codificación sin penalizar el rendimiento. Yendo a los números, usando la Transformada de Fourier se alcanza el 92% de la precisión antigua con tiempos de entrenamiento 7 veces más rápidos en GPUs y 2 veces más rápidos en TPUs. 🤯

Atando cabos 🪢

La historia de Fourier viene a respaldar la noción de rendimientos acelerados de Kurzweil acerca de cómo los avances tecnológicos se realimentan entre sí y ponen las bases para nuevos y más rápidos avances.

El viaje de un matemático a Egipto ha acabado definiendo muchas de las tecnologías que usamos a día de hoy y quién sabe si las aplicaciones que se están desarrollando hoy con herramientas No Code acabarán siendo determinantes en el futuro.

Por ello, aunque intuimos cómo avanzará el ritmo de la evolución tecnológica, el futuro es totalmente impredecible y solo entendible en retrospectiva.

Personalmente creo que estamos en un momento clave de la historia en términos tecnológicos y no puedo sino estar intrigado y expectante con lo que está por venir. La parte positiva es que, si Kurzweil está en lo cierto, tal vez no tengamos que esperar tanto para conocer muchas de las cosas que el futuro nos depara.

¡Gracias como siempre por leer hasta aquí!


¿Te gusta The Independent Sentinel? ¡Ayúdanos a que nos conozca más gente compartiendo las publicaciones!

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo fácilmente al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #21

El ascenso de Pytorch, IA compositiva y la máquina de Ramanujan

¡Hola!

Soy Javier Fuentes, de Akoios, bienvenido una vez más a The Independent Sentinel, el boletín mensual en español en el que hablamos sobre Ciencia de Datos e Inteligencia Artificial desde una perspectiva didáctica y accesible.

Si quieres recibir la newsletter directamente en tu e-mail, basta con que te suscribas pulsando este botón:

¡Suscríbete ahora!

Esta edición está dedicada a la librería Pytorch, a la composición de modelos y a uno de los matemáticos más especiales de la historia.

¡Arrancamos! 👇🏻


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

Herramientas 🛠

Si eres científico de datos o tienes alguna relación con este mundo, seguramente hayas oído hablar de librerías como TensorFlow, Keras o Pytorch.

Pese a su juventud, Pytorch se ha convertido en una de las principales y más usadas alternativas para el desarrollo de modelos por su sencillez, facilidad de uso y su fantástica documentación.

Pytorch se basa en Torch, y es una librería open-source que fue creada por el departamento de investigación IA de Facebook (FAIR - Facebook’s AI Research Lab) en 2016. En sus inicios tenía como objetivo proporcionar una alternativa mejorada y compatible a NumPy, pero con dos principales rasgos diferenciales:

  • Uso de Tensores: Los tensores son estructuras matriciales de datos asimilables a los típicos arrays n-dimensionales de NumPy pero con la importante diferencia de que éstos pueden también ser utilizados sobre las rápidas y potentes GPUs.

  • Implementación de Redes Neuronales Profundas mediante Diferenciación Automática, una técnica numérica para optimizar el cálculo computacional de derivadas.

Como muestra del éxito y tracción de esta librería, no hay más que ver la multitud de modelos, tutoriales, proyectos, papers, libros y vídeos explicativos que hay sobre ella. Y no solo eso, poco a poco, Pytorch se está convirtiendo en un estándar de facto para del desarrollo y diseño de modelos Deep Learning.

Como consecuencia del creciente interés sobre esta librería, en el repositorio The Incredible Pytorch se recoge una exhaustiva lista de variadísimos recursos sobre Pytorch.

El repositorio incluye desde referencias básicas relativas a tratamiento de datos hasta ejemplos específicos de detección de objetos, CNNs (redes neuronales convolucionales) o GANs. ¡Merece la pena echarle un vistazo!

Tendencias 📈

En el ámbito de la tecnología es muy común infravalorar los avances a medio-largo plazo (10-20 años) a la vez que se sobrevaloran los avances a corto plazo (1-5 años).

Esto no es distinto en el mundo de la Inteligencia Artificial. No paramos de ver avances que nos hacen pensar que todo está a la vuelta de la esquina pero, muy seguramente, los grandes cambios e impactos transformadores no empecemos a verlos hasta dentro de algo más de tiempo.

Una de las métricas clave para cuantificar la adopción de una tecnología y su impacto, se obtiene analizando su presencia -en términos operativos- dentro de la industria. A este respecto, en los últimos tiempos se viene hablando del concepto de Enterprise AI para clasificar los diversos Casos de Uso en el entorno de la empresa.

Una idea clave en el desarrollo y madurez de la IA/ML es que, aún a día de hoy, los modelos se desarrollan para dar solución a una sola tarea específica (una predicción, una clasificación, la detección de un determinado ítem en una imagen…).

Esto aplica igualmente a las tendencias que vimos en TIS #11 cuando hablamos de modelos ensemble (usar varios modelos para mejorar una única predicción/clasificación) o cuando hablamos de modelos federados en TIS #9 (modelos que usan fuentes de datos de distintas organizaciones para su entrenamiento)

Dentro de la idea de Enterprise AI, se está empezando a popularizar el concepto de IA compositiva, que no es otra cosa que el uso generalizado y común de diversos modelos que puedan aplicar a solventar diversos problemas dentro de una compañía.

Nada mejor que un ejemplo para ilustrar esta idea. Pensemos en una empresa industrial en la que hay dos procesos (Gestión de Stock y Detección de defectos de Fabricación) que, en distintas partes de sus flujos, hacen uso o “consumen” una serie de (micro)servicios IA/ML que tienen en común.

Yendo un poco más allá, la idea de esta composición es poder generar un ecosistema de modelos que puedan ser combinados de manera arbitraria para dar solución a diversos casos de uso o a procesos de negocio más complejos. Estas combinaciones abren la puerta a obtener soluciones más diversas, flexibles y modulares que nos permitirán solucionar más problemas con las mismas herramientas y soluciones generales.

👉🏻 Akoios está activamente trabajando para facilitar la adopción de la Enterprise AI en el mundo empresarial, facilitando la construcción de ecosistemas que favorezcan la IA compositiva. Si quieres saber más, escríbenos aquí y te contamos.

2. Historias 📔

Un misterioso paquete 📦

A mediados de Enero de 1913, G.H. Hardy, uno de los más famosos matemáticos de la época, recibió en su despacho del Trinity College de Cambridge un paquete procedente de Madrás (la actual Chennai), una ciudad del este de la India.

El paquete contenía multitud de hojas manuscritas y venía acompañado de una carta de presentación escrita por un joven matemático llamado Srinivasa Ramanujan.

Ramanujan's First Letter to G.H. Hardy

En la carta, Ramanujan se presentaba como un humilde oficinista del puerto de Madrás que vivía en situación precaria con una salario de £20 anuales y que no había recibido una educación matemática universitaria formal.

Tras su presentación, hablaba en su carta de las averiguaciones que había realizado por su cuenta en el campo de las series divergentes. Estos descubrimientos no eran para nada desdeñables, ya que Ramanujan planteaba avances significativos en el campo de las series temporales y proporcionaba una solución a un problema aún no resuelto: la distribución de los números primos.

La sorprendente carta acababa con una petición muy especial para Hardy: Que revisase su trabajo en busca de errores para que, en el caso de no haberlos, publicase alguno de los teoremas que había desarrollado, algo imposible para él dada su situación de casi extrema pobreza.

Hardy quedó perplejo al leer la carta y la serie de teoremas y demostraciones que Ramajunan adjuntó en el paquete. Entre los escritos, encontró algunas fórmulas reconocibles (a las que Ramajunan había llegado por sus propios medios) mientras que otras, en sus propias palabras, le “parecían casi imposibles de creer”

Un compañero de Hardy, Un colega, E. H. Neville, llegó a aseverar lo siguiente 

"ni uno solo de los [teorema]s podría haberse incluido en el examen de matemáticas más avanzado del mundo".

Aún dubitativo, Hardy contestó a Ramanujan interesándose por su trabajo y solicitando pruebas adicionales de las afirmaciones que Srinivasan había realizado en su misiva.

Pese a la reticencia inicial de Ramanujan de viajar a Cambridge, éste continuó manteniendo una asidua correspondencia con Hardy y otros compañeros suyos.

Un largo periplo 🚢

Finalmente, el 16 de Marzo de 1914, después de obtener finalmente el permiso por parte de sus padres (hecho que había motivado su negativa inicial a viajar a Inglaterra), Ramanujan embarcó en el SS Nevasa desde el puerto de Madrás destino Londres, dónde llegaría el 14 de Abril y sería recibido por el propio Hardy.

Ramanujan se mudó a la casa de Neville y se puso a trabajar de forma inmediata con él y con Hardy, colaboración que duró casi cinco años y en la que dejó patente su prodigiosa habilidad para las matemáticas. Según Hardy, su talento era solo comparable al de Euler o Jacobi.

En Diciembre del 1917 fue nombrado miembro de la Sociedad matemática de Londres y, en 1918, miembro de la Royal Society y del Trinity College, algo inaudito para una persona de origen indio

Un taxi n̶a̶d̶a̶ especial 🚕

La salud de Ramanujan siempre había sido frágil. Su forma de vida, su dieta y su obsesión por el trabajo tampoco le habían ayudado demasiado en este sentido. Tras ser diagnosticado de tuberculosis fue internado en un sanatorio dónde recibía asiduamente visitas de su buen amigo Hardy.

En una de estas visitas, tuvo lugar la anécdota más conocida -y más ilustrativa- sobre este genio. Al entrar Hardy en la habitación y encontrar a Ramanujan ya muy enfermo, rompió el hielo contándole que había llegado al hospital en un taxi con una matrícula muy poco interesante: “1729”, a lo que Ramanujan replicó:

¡No diga usted eso! El número 1729 es muy interesante, pues es el número más pequeño expresable como suma de dos cubos de dos maneras diferentes, ya que 1729 = 1^3 + 12^3 y también 1729 = 9^3 + 10^3. 

Desde entonces, a aquellas cifras que son el menor número que se puede descomponer como n sumas distintas de dos cubos positivos se les llama números Taxicab y, por ahora, solo conocemos 6 de ellos.

Al empeorar de su estado, Ramanujan decidió volver a la India en 1919, dónde murió en 1920 a la temprana edad de 32 años. Pese a que no están claras las verdaderas causas de su muerte, se estima que pudo ser causada por una infección parasitaria muy generalizada en Madrás.

La máquina de Ramanujan

Además de por su historia vital, el legado de Ramanujan sigue vigente por el impacto -directo e indirecto- de sus trabajos. A lo largo de su corta vida, Ramanujan identificó novedosas ecuaciones e identidades, entre ellas una muy conocida para calcular grandes cantidades de decimales de 𝜋.

Ramanujan tenía un talento sobrehumano para los números y una habilidad para encontrar patrones invisibles para el resto de matemáticos.

Inspirados por esta extraordinaria capacidad de Ramanujan para generar de manera intuitiva formulaciones matemáticas, científicos del Instituto de Tecnología Technion de Israel, han desarrollado un generador de conjeturas basado en Inteligencia Artificial llamado: La máquina de Ramanujan.

Las conjeturas matemáticas (afirmaciones que se suponen ciertas pero que no se han podido probar aún) suponen una de las principales herramientas de los matemáticos para realizar avances y descubrimientos en este campo.

Tal y como cuentan en su web, la máquina de Ramanujan se puede considerar como un nuevo modo de hacer matemáticas soportado por cálculos computacionales. A día de hoy, este modelo ha encontrado decenas de nuevas conjeturas que pueden abrir nuevos caminos para la investigación.

A la vista de estos progresos, parece que la IA puede ser también un fantástico aliado en un campo tan complejo y abstracto como las matemáticas. Esperemos que pueda generar muchas conjeturas y, sobre todo, que logremos ir probándolas aunque no tengamos ya entre nosotros a alguien tan brillante como Srinivasa Ramanujan.

Hay una reflexión final a la que me lleva inevitablemente la historia de este matemático. Ramanujan tuvo la suerte de encontrar a alguien que le escuchó y le ofreció la oportunidad de desarrollar su potencial. ¿Cuántas personas como Ramanujan habrán pasado desapercibidas a lo largo de la historia? ¿Cuántos genios sin descubrir hay en el mundo a día de hoy?

Esperemos que la tecnología y el desarrollo humano nos permitan llegar a un futuro en el que todo el mundo pueda desarrollar sus capacidades y en el que, de ningún modo, la humanidad pueda perder a un solo genio.

¡Gracias como siempre por leer hasta aquí!


¿Disfrutas The Independent Sentinel? ¡Ayúdanos a que nos conozca más gente compartiendo esta publicación!

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo fácilmente al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

Loading more posts…