The Independent Sentinel #22

La Ley de Huang, herramientas No-Code y el matemático favorito de Napoleón

¡Hola!

Soy Javier Fuentes, de Akoios. Gracias por estar leyendo esta nueva edición de “The Independent Sentinel”, la newsletter mensual dedicada a la Ciencia de Datos y a la Inteligencia Artificial.

Si quieres recibir este boletín puntualmente en tu bandeja de entrada, puedes suscribirte en este botón:

¡Suscríbete ahora!

En esta edición vamos a hablar de la Ley de los Rendimientos Acelerados, de programar sin saber de programación y de una expedición a Egipto.

¡Vamos allá! 🐪


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

📈 Tendencias: La Ley de Huang

En 2001 Ray Kurzweil, afamado inventor, empresario y científico presentaba la “Ley de los Rendimientos Acelerados” en su ensayo del mismo nombre.

La Ley de los Rendimientos Acelerados (LRA en adelante) describe cómo los avances tecnológicos se apoyan entre sí dando lugar a unos cada vez mayores -y más rápidos- avances futuros en un bucle de realimentación positiva.

En base a su análisis de la historia de la tecnología, Kurzweil dedujo que la evolución tecnológica no tiene un carácter lineal sino más bien un carácter exponencial.

En sus predicciones, Kurzweil estimaba que, en unas pocas décadas (sobre 2045), la Inteligencia Artificial superará a la inteligencia humana, momento en el que alcanzaremos La Singularidad: Ese punto de inflexión que, en sus palabras, representará una ruptura en el tejido de la historia humana:

Within a few decades, machine intelligence will surpass human intelligence, leading to The Singularity — technological change so rapid and profound it represents a rupture in the fabric of human history. 

La computación es uno de los mejores ejemplos para ilustrar la LRA. De hecho, esta Ley no es más que una generalización de la conocida Ley de Moore, formulada por Gordon E. Moore (cofundador de Intel) en 1965 que estimaba que, aproximadamente cada 2 años, se iría duplicando el número de transistores contenidos en un microprocesador.

La acertadísima observación de Moore se ha acabado convirtiendo en la Regla de Oro de la industria electrónica y, en cierto modo, ha supuesto una suerte de profecía autocumplida en un sector que ha ido evolucionando según esta previsión.

No obstante, se está empezando a cuestionar al Ley de Moore debido a que ya se están alcanzando los límites físicos (atómicos) en la miniaturización e integración de los transistores.

La historia tiende a repetirse y, casi 60 años después, se está comenzando a hablar de una nueva Ley, llamada en esta ocasión Ley de Huang al honor de Jensen Huang, CEO de Nvidia, una de las principales compañías en el sector de los semiconductores.

La Ley de Huang describe cómo las GPUs (muy utilizadas como ya sabes en Inteligencia Artificial) están avanzando más rápidamente que las CPUs y están más que doblando su rendimiento cada dos años. Una parte muy interesante de este crecimiento es que está siendo cimentado mediante avances tanto en hardware como en software.

Como ejemplo, el rendimiento de los chips de Nvidia se ha incrementado 317 veces en el ámbito de los cálculos relacionados con la IA entre 2012 y 2020.

De algún modo, pasar de la Ley De Moore a la Ley de Huang no hace más que confirmar la tendencia atisbada por Kurzweil en su LRA: Siempre que una tecnología se aproxima a algún tipo de barrera (en este caso los límites físicos), se acabará inventando una nueva tecnología o variante que permitirá seguir progresando incluso más rápidamente que antes.

En lo que respecta al mundo de la Ciencia de Datos, estos avances determinarán en gran medida el devenir de toda esta industria y su futura expansión. Del mismo modo que la Ley de Moore sacó a la Inteligencia Artificial de su particular invierno, es muy posible que la Ley de Huang acabe convirtiendo a la IA -si es que no lo es ya- en una disciplina ubicua y omnipresente en nuestras vidas.

🛠 Herramientas: El Mundo No Code

Poder desarrollar productos digitales sin necesidad de conocimientos técnicos (e.g. programar) ha sido un anhelo largamente perseguido.

Históricamente, siempre ha habido herramientas que nos han ido abstrayendo de la complejidad subyacente a una computadora, sirvan como ejemplo los Sistemas Operativos o los Lenguajes de Programación.

En los últimos tiempos se están realizado progresos relevantes para la “democratización” del desarrollo software. Estos avances se pueden englobar dentro del llamado Movimiento No Code, que agrupa a diversas plataformas y herramientas que ofrecen soluciones para programar sin necesidad de expertise técnico alguno.

Aún sin conocer el término No Code, seguro que te resultan familiares herramientas como Zapier (Integraciones), Shopify (E-commerce) o Airtable (Bases de Datos).

Todas ellas han realizado increíbles progresos y ofrecen fantásticas experiencias de desarrollo cada vez más flexibles y avanzadas.

Pese a todos estos avances, parece que lo mejor en este ámbito está aún por llegar y lo hará de la mano de la Inteligencia Artificial. Modelos como GPT-3 de los que ya hemos hablado en otras ediciones, se están convirtiendo en la pieza clave de un sistema No Code: El intérprete entre los humanos y los lenguajes de programación.

Los siguientes ejemplos ilustran el nivel de automatización que se está empezando a conseguir:

⌨️ Generación SQL

Como se puede ver en este ejemplo, GPT-3 puede ser usado para inferir una sentencia SQL sintácticamente correcta a partir de una pregunta expresada de manera natural:

💻 Generación de aplicaciones

En este mismo sentido, Microsoft (inversores de OpenAI -los creadores de GPT-3-) ha incluido a modo de prueba de concepto un mecanismo de autocompletado para su herramienta PowerApps que, aunque no sea puramente No Code, podría acelerar muchísimo los tiempos de desarrollo de sus usuarios. Puedes verlo en funcionamiento aquí.

🖼 Generación de layouts

En el caso de la programación web, se puede usar este mismo concepto para la generación automática de layouts. En el vídeo se muestra un ejemplo de esta idea a cargo de la empresa debuild.co, orientada justamente al desarrollo de Aplicaciones Web minimizando los esfuerzos de desarrollo:

Veremos a dónde llega todo este movimiento pero, a la vista de estos últimos avances, no podemos estar más que esperanzados con todo lo que está por venir. Eso sí, que nadie espere que desaparezcan los programadores de un día para otro. Seguirán con nosotros por mucho, mucho tiempo.

2. Historias 📔

Una expedición a Egipto 🏜

En 1798, Joseph Fourier (1768-1830), un joven profesor de la Escuela Politécnica de París, recibía un mensaje urgente proveniente del Ministerio del Interior de Francia:

"Ciudadano: el directorio ejecutivo, que tiene una necesidad particular de sus talentos y de su fervor, acaba de disponer de usted por el bien del servicio público. Debe prepararse y estar listo para partir apenas reciba la orden".

Apenas dos meses después, Fourier estaba zarpando en una expedición cuyo objetivo aún no anunciado no era otro que la invasión de Egipto para cerrar a los británicos el camino a la India.

La expedición estaba compuesta por más de 25.000 soldados y, lo que es más sorprendente: 167 científicos y artistas de todas las disciplinas: matemáticos, físicos, químicos, ingenieros, pintores e incluso músicos.

La presencia de este amplio abanico de no combatientes tenía un claro fin simbólico ya que reflejaba el compromiso de la Revolución Francesa con el progreso científico. El objetivo final de Napoleón era convertir Egipto en un protectorado francés y, para ello, no solo debía conquistarlo, sino que también debía ganarse la confianza de su población.

La expedición fue un éxito en sus inicios, tal y como como atestiguan la ocupación de Malta en 1798 o la toma de Alejandría y el Delta del Nilo el 1 de Julio de ese mismo año en la conocida Batalla de las Pirámides. Sin embargo, las cosas empeorarían para Francia tras la destrucción de su flota por parte del contraalmirante Nelson en la Batalla del Nilo, derrota que, finalmente, forzó el regreso de Napoleón a París.

Durante esta expedición, Napoleón descubrió las capacidades (científicas y políticas) de Fourier, de ahí que contase con él como consejero y asesor para incluso, en 1809, llegar a concederle el título de Barón. algo inusual para alguien de tan humildes orígenes como Fourier.

Pese al regreso de Napoleón, muchos de los expedicionarios -entre ellos Fourier- siguieron en Egipto. Durante estos años, Fourier llegó a ser gobernador de una parte del país y tuvo tiempo de fundar el Instituto Matemático de El Cairo antes de regresar a Francia en 1801.

La teoría del Calor 🏜

Durante su estancia en Egipto, Fourier no paró de pensar en el calor. Las altas temperaturas de la región y las propiedades curativas que Fourier creía que el calor tenía, le llevaron a plantearse dos preguntas principales: ¿Cómo se mueve el calor de un sitio a otro? ¿Cuál es la expresión matemática de estas leyes?.

El 21 de Diciembre 1807, Fourier presentó su trabajo sobre la teoría del calor en su memoria “Sobre la propagación del calor en cuerpos sólidos” frente un comité compuesto con varias celebridades científicas de la época, nada más y nada menos que LagrangeLaplaceMonge entre otros.

La noción matemática de Fourier acerca de cómo se comporta el calor, abrió la puerta a algo mucho más importante: comprender cualquier fenómeno que pueda describirse como una onda, como el sonido o la luz.

La tesis principal de Fourier es que una onda, por compleja que sea, puede ser expresada como la suma de varias ondas sinusoidales: El análisis armónico o análisis de Fourier había nacido.

El análisis de Fourier 🌊

Me atrevería a decir que nuestro mundo digital actual no existiría sin Fourier. Sus teorías han tenido impacto en campos tan diversos como la física, la combinatoria, el procesamiento de señal, la probabilidad, la estadística, el análisis numérico, la criptografía o la óptica entre muchísimos otros.

El análisis de Fourier consta de dos variantes o herramientas principales (muy bien conocidas para cualquiera que haya estudiado ingeniería, física o matemáticas):

Fourier y el Machine Learning 🤖

Como no podría ser de otro modo, la influencia del análisis del Fourier ha llegado también a la Ciencia de Datos en general y al Machine Learning en particular.

De hecho, es muy común usar la transformada de Fourier para

Se podría incluso mencionar un avance de este mismo mes, que versa sobre uso de la Transformada de Fourier para mejorar el rendimiento de los Transformers que tratamos con más detalle en TIS #20.

Como vimos, la principal limitación de los Transformers es el enorme coste computacional asociado a los mecanismos de Atención, ya que este coste crece de manera cuadrática en relación a la longitud de la secuencia bajo análisis.

En este paper publicado por investigadores de Google se demuestra que usando la transformada de Fourier es posible incrementar de manera significativa la velocidad de la codificación sin penalizar el rendimiento. Yendo a los números, usando la Transformada de Fourier se alcanza el 92% de la precisión antigua con tiempos de entrenamiento 7 veces más rápidos en GPUs y 2 veces más rápidos en TPUs. 🤯

Atando cabos 🪢

La historia de Fourier viene a respaldar la noción de rendimientos acelerados de Kurzweil acerca de cómo los avances tecnológicos se realimentan entre sí y ponen las bases para nuevos y más rápidos avances.

El viaje de un matemático a Egipto ha acabado definiendo muchas de las tecnologías que usamos a día de hoy y quién sabe si las aplicaciones que se están desarrollando hoy con herramientas No Code acabarán siendo determinantes en el futuro.

Por ello, aunque intuimos cómo avanzará el ritmo de la evolución tecnológica, el futuro es totalmente impredecible y solo entendible en retrospectiva.

Personalmente creo que estamos en un momento clave de la historia en términos tecnológicos y no puedo sino estar intrigado y expectante con lo que está por venir. La parte positiva es que, si Kurzweil está en lo cierto, tal vez no tengamos que esperar tanto para conocer muchas de las cosas que el futuro nos depara.

¡Gracias como siempre por leer hasta aquí!


¿Te gusta The Independent Sentinel? ¡Ayúdanos a que nos conozca más gente compartiendo las publicaciones!

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo fácilmente al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #21

El ascenso de Pytorch, IA compositiva y la máquina de Ramanujan

¡Hola!

Soy Javier Fuentes, de Akoios, bienvenido una vez más a The Independent Sentinel, el boletín mensual en español en el que hablamos sobre Ciencia de Datos e Inteligencia Artificial desde una perspectiva didáctica y accesible.

Si quieres recibir la newsletter directamente en tu e-mail, basta con que te suscribas pulsando este botón:

¡Suscríbete ahora!

Esta edición está dedicada a la librería Pytorch, a la composición de modelos y a uno de los matemáticos más especiales de la historia.

¡Arrancamos! 👇🏻


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

Herramientas 🛠

Si eres científico de datos o tienes alguna relación con este mundo, seguramente hayas oído hablar de librerías como TensorFlow, Keras o Pytorch.

Pese a su juventud, Pytorch se ha convertido en una de las principales y más usadas alternativas para el desarrollo de modelos por su sencillez, facilidad de uso y su fantástica documentación.

Pytorch se basa en Torch, y es una librería open-source que fue creada por el departamento de investigación IA de Facebook (FAIR - Facebook’s AI Research Lab) en 2016. En sus inicios tenía como objetivo proporcionar una alternativa mejorada y compatible a NumPy, pero con dos principales rasgos diferenciales:

  • Uso de Tensores: Los tensores son estructuras matriciales de datos asimilables a los típicos arrays n-dimensionales de NumPy pero con la importante diferencia de que éstos pueden también ser utilizados sobre las rápidas y potentes GPUs.

  • Implementación de Redes Neuronales Profundas mediante Diferenciación Automática, una técnica numérica para optimizar el cálculo computacional de derivadas.

Como muestra del éxito y tracción de esta librería, no hay más que ver la multitud de modelos, tutoriales, proyectos, papers, libros y vídeos explicativos que hay sobre ella. Y no solo eso, poco a poco, Pytorch se está convirtiendo en un estándar de facto para del desarrollo y diseño de modelos Deep Learning.

Como consecuencia del creciente interés sobre esta librería, en el repositorio The Incredible Pytorch se recoge una exhaustiva lista de variadísimos recursos sobre Pytorch.

El repositorio incluye desde referencias básicas relativas a tratamiento de datos hasta ejemplos específicos de detección de objetos, CNNs (redes neuronales convolucionales) o GANs. ¡Merece la pena echarle un vistazo!

Tendencias 📈

En el ámbito de la tecnología es muy común infravalorar los avances a medio-largo plazo (10-20 años) a la vez que se sobrevaloran los avances a corto plazo (1-5 años).

Esto no es distinto en el mundo de la Inteligencia Artificial. No paramos de ver avances que nos hacen pensar que todo está a la vuelta de la esquina pero, muy seguramente, los grandes cambios e impactos transformadores no empecemos a verlos hasta dentro de algo más de tiempo.

Una de las métricas clave para cuantificar la adopción de una tecnología y su impacto, se obtiene analizando su presencia -en términos operativos- dentro de la industria. A este respecto, en los últimos tiempos se viene hablando del concepto de Enterprise AI para clasificar los diversos Casos de Uso en el entorno de la empresa.

Una idea clave en el desarrollo y madurez de la IA/ML es que, aún a día de hoy, los modelos se desarrollan para dar solución a una sola tarea específica (una predicción, una clasificación, la detección de un determinado ítem en una imagen…).

Esto aplica igualmente a las tendencias que vimos en TIS #11 cuando hablamos de modelos ensemble (usar varios modelos para mejorar una única predicción/clasificación) o cuando hablamos de modelos federados en TIS #9 (modelos que usan fuentes de datos de distintas organizaciones para su entrenamiento)

Dentro de la idea de Enterprise AI, se está empezando a popularizar el concepto de IA compositiva, que no es otra cosa que el uso generalizado y común de diversos modelos que puedan aplicar a solventar diversos problemas dentro de una compañía.

Nada mejor que un ejemplo para ilustrar esta idea. Pensemos en una empresa industrial en la que hay dos procesos (Gestión de Stock y Detección de defectos de Fabricación) que, en distintas partes de sus flujos, hacen uso o “consumen” una serie de (micro)servicios IA/ML que tienen en común.

Yendo un poco más allá, la idea de esta composición es poder generar un ecosistema de modelos que puedan ser combinados de manera arbitraria para dar solución a diversos casos de uso o a procesos de negocio más complejos. Estas combinaciones abren la puerta a obtener soluciones más diversas, flexibles y modulares que nos permitirán solucionar más problemas con las mismas herramientas y soluciones generales.

👉🏻 Akoios está activamente trabajando para facilitar la adopción de la Enterprise AI en el mundo empresarial, facilitando la construcción de ecosistemas que favorezcan la IA compositiva. Si quieres saber más, escríbenos aquí y te contamos.

2. Historias 📔

Un misterioso paquete 📦

A mediados de Enero de 1913, G.H. Hardy, uno de los más famosos matemáticos de la época, recibió en su despacho del Trinity College de Cambridge un paquete procedente de Madrás (la actual Chennai), una ciudad del este de la India.

El paquete contenía multitud de hojas manuscritas y venía acompañado de una carta de presentación escrita por un joven matemático llamado Srinivasa Ramanujan.

Ramanujan's First Letter to G.H. Hardy

En la carta, Ramanujan se presentaba como un humilde oficinista del puerto de Madrás que vivía en situación precaria con una salario de £20 anuales y que no había recibido una educación matemática universitaria formal.

Tras su presentación, hablaba en su carta de las averiguaciones que había realizado por su cuenta en el campo de las series divergentes. Estos descubrimientos no eran para nada desdeñables, ya que Ramanujan planteaba avances significativos en el campo de las series temporales y proporcionaba una solución a un problema aún no resuelto: la distribución de los números primos.

La sorprendente carta acababa con una petición muy especial para Hardy: Que revisase su trabajo en busca de errores para que, en el caso de no haberlos, publicase alguno de los teoremas que había desarrollado, algo imposible para él dada su situación de casi extrema pobreza.

Hardy quedó perplejo al leer la carta y la serie de teoremas y demostraciones que Ramajunan adjuntó en el paquete. Entre los escritos, encontró algunas fórmulas reconocibles (a las que Ramajunan había llegado por sus propios medios) mientras que otras, en sus propias palabras, le “parecían casi imposibles de creer”

Un compañero de Hardy, Un colega, E. H. Neville, llegó a aseverar lo siguiente 

"ni uno solo de los [teorema]s podría haberse incluido en el examen de matemáticas más avanzado del mundo".

Aún dubitativo, Hardy contestó a Ramanujan interesándose por su trabajo y solicitando pruebas adicionales de las afirmaciones que Srinivasan había realizado en su misiva.

Pese a la reticencia inicial de Ramanujan de viajar a Cambridge, éste continuó manteniendo una asidua correspondencia con Hardy y otros compañeros suyos.

Un largo periplo 🚢

Finalmente, el 16 de Marzo de 1914, después de obtener finalmente el permiso por parte de sus padres (hecho que había motivado su negativa inicial a viajar a Inglaterra), Ramanujan embarcó en el SS Nevasa desde el puerto de Madrás destino Londres, dónde llegaría el 14 de Abril y sería recibido por el propio Hardy.

Ramanujan se mudó a la casa de Neville y se puso a trabajar de forma inmediata con él y con Hardy, colaboración que duró casi cinco años y en la que dejó patente su prodigiosa habilidad para las matemáticas. Según Hardy, su talento era solo comparable al de Euler o Jacobi.

En Diciembre del 1917 fue nombrado miembro de la Sociedad matemática de Londres y, en 1918, miembro de la Royal Society y del Trinity College, algo inaudito para una persona de origen indio

Un taxi n̶a̶d̶a̶ especial 🚕

La salud de Ramanujan siempre había sido frágil. Su forma de vida, su dieta y su obsesión por el trabajo tampoco le habían ayudado demasiado en este sentido. Tras ser diagnosticado de tuberculosis fue internado en un sanatorio dónde recibía asiduamente visitas de su buen amigo Hardy.

En una de estas visitas, tuvo lugar la anécdota más conocida -y más ilustrativa- sobre este genio. Al entrar Hardy en la habitación y encontrar a Ramanujan ya muy enfermo, rompió el hielo contándole que había llegado al hospital en un taxi con una matrícula muy poco interesante: “1729”, a lo que Ramanujan replicó:

¡No diga usted eso! El número 1729 es muy interesante, pues es el número más pequeño expresable como suma de dos cubos de dos maneras diferentes, ya que 1729 = 1^3 + 12^3 y también 1729 = 9^3 + 10^3. 

Desde entonces, a aquellas cifras que son el menor número que se puede descomponer como n sumas distintas de dos cubos positivos se les llama números Taxicab y, por ahora, solo conocemos 6 de ellos.

Al empeorar de su estado, Ramanujan decidió volver a la India en 1919, dónde murió en 1920 a la temprana edad de 32 años. Pese a que no están claras las verdaderas causas de su muerte, se estima que pudo ser causada por una infección parasitaria muy generalizada en Madrás.

La máquina de Ramanujan

Además de por su historia vital, el legado de Ramanujan sigue vigente por el impacto -directo e indirecto- de sus trabajos. A lo largo de su corta vida, Ramanujan identificó novedosas ecuaciones e identidades, entre ellas una muy conocida para calcular grandes cantidades de decimales de 𝜋.

Ramanujan tenía un talento sobrehumano para los números y una habilidad para encontrar patrones invisibles para el resto de matemáticos.

Inspirados por esta extraordinaria capacidad de Ramanujan para generar de manera intuitiva formulaciones matemáticas, científicos del Instituto de Tecnología Technion de Israel, han desarrollado un generador de conjeturas basado en Inteligencia Artificial llamado: La máquina de Ramanujan.

Las conjeturas matemáticas (afirmaciones que se suponen ciertas pero que no se han podido probar aún) suponen una de las principales herramientas de los matemáticos para realizar avances y descubrimientos en este campo.

Tal y como cuentan en su web, la máquina de Ramanujan se puede considerar como un nuevo modo de hacer matemáticas soportado por cálculos computacionales. A día de hoy, este modelo ha encontrado decenas de nuevas conjeturas que pueden abrir nuevos caminos para la investigación.

A la vista de estos progresos, parece que la IA puede ser también un fantástico aliado en un campo tan complejo y abstracto como las matemáticas. Esperemos que pueda generar muchas conjeturas y, sobre todo, que logremos ir probándolas aunque no tengamos ya entre nosotros a alguien tan brillante como Srinivasa Ramanujan.

Hay una reflexión final a la que me lleva inevitablemente la historia de este matemático. Ramanujan tuvo la suerte de encontrar a alguien que le escuchó y le ofreció la oportunidad de desarrollar su potencial. ¿Cuántas personas como Ramanujan habrán pasado desapercibidas a lo largo de la historia? ¿Cuántos genios sin descubrir hay en el mundo a día de hoy?

Esperemos que la tecnología y el desarrollo humano nos permitan llegar a un futuro en el que todo el mundo pueda desarrollar sus capacidades y en el que, de ningún modo, la humanidad pueda perder a un solo genio.

¡Gracias como siempre por leer hasta aquí!


¿Disfrutas The Independent Sentinel? ¡Ayúdanos a que nos conozca más gente compartiendo esta publicación!

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo fácilmente al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #20

La madre de todos los repositorios, los Transformers y el mito del héroe

¡Hola!

Soy Javier Fuentes, de Akoios, bienvenidos a la vigésima edición de The Independent Sentinel, la newsletter en la que se habla de Ciencia de Datos e Inteligencia Artificial a través de novedades, curiosidades e historias.

Si quieres recibir la newsletter en tu bandeja de correo, puedes suscribirte fácilmente aquí:

¡Suscríbete ahora!

En esta edición hablaremos de un repositorio de herramientas, de los Transformers y de una historia que se repite desde tiempos inmemoriales.

¡Arrancamos! 🚶🏻‍♂️


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

Herramientas 🛠

El mundo de la Ciencia de Datos y el Machine Learning es tremendamente dinámico. Tan es así que se hace muy difícil mantenerse al día.

Afortunadamente, hay gente dedicada a facilitarnos esta tarea. Awesome Machine Learning es un repositorio que contiene una lista actualizada de frameworks, bibliotecas y software relacionado con el Machine Learning organizada por lenguajes de programación.

Los lenguajes de los que se muestran herramientas van desde LISP hasta Go:

Además, y con el fin clasificar toda la información, existe una sección por lenguaje que lista las herramientas según su propósito.

Entendiendo los Transformers 🤖

Una breve introducción ✍🏻

En pasadas ediciones hemos venido hablando de varios modelos NLP (Procesamiento de Lenguaje Natural) que están en boca de todo el mundo como BERT, GPT-2 o GPT-3.

En el centro de esta revolución, hay una novedosa arquitectura llamada Transformer que todos estos modelos comparten y que no tiene nada que ver con Optimus Prime.

Dos de los grandes retos del procesamiento del lenguaje natural para extraer o sintetizar “significado” son 1) la capacidad para poder entender el contexto (las palabras o frases que rodean al segmento que estamos analizando) y 2) entender las implicaciones semánticas derivadas del orden en las que la palabras aparecen .

Hasta hace muy poco tiempo, los modelos NLP más sofisticados han venido usando complejas redes neuronales (recurrentes y convolucionales) para convertir una secuencia de palabras de entrada en otra secuencia de palabras de salida.

Estos modelos se denominan secuencia-a-secuencia (seq2seq) y son muy efectivos en trabajos de traducción (e.g. Google Translate). Un modelo seq2seq muy conocido es el llamado LSTM (Long Short Term Memory), un modelo capaz de encontrar sentido en una frase recordado u olvidando partes que considera relevantes o no.

Se puede entender el funcionamiento seq2seq con una analogía relativamente sencilla ya que todos estos modelos funcionan con dos bloques, un codificador y un decodificador.

🤓 Explicación técnica: El codificador coge la entrada (una frase específica) y la “mapea” como un vector en un espacio n-dimensional. Este mismo vector, es el que usa el decodificador para generar la secuencia de salida.

🤔 Explicación no técnica: Imaginemos que tanto el codificador como el decodificador son dos personas que hablas dos idiomas, cada uno tiene su idioma materno (inglés y español respectivamente) y además comparten un tercer idioma imaginario. El codificador coge una frase y la traduce del español al idioma imaginario y, el decodificador, que también conoce este idioma imaginario, traduce al inglés desde este último.

Pese a su potencia, estos modelos tienen un problema técnico. Al usar arquitecturas de redes neuronales “recurrentes”, su complejidad crece muy significativamente al incrementar el tamaño de la secuencia o frase que queremos analizar. Es justamente este, uno de los problemas que los modelos Transformer vienen a solucionar.

Llegan los transformers 🤖

Los Transformers son modelos que pueden acometer casi cualquier tarea NP (traducción, modelización, clasificación…) manteniendo una estructura muy similar a excepción de una capa final que define su propósito final.

En el paper “Attention Is All You Need” se presentó la arquitectura Transformer con la que se consigue evitar la recurrencia, basándose únicamente en los llamados métodos de Atención.

El objetivo de los mecanismos de Atención es poder estimar el peso relativo de términos clave en una frase. Por ejemplo, al leer un texto (esta newsletter por ejemplo) uno se focaliza en las palabra que está leyendo, pero también en el resto de palabras clave que tenemos en la memoria y que aportan contexto a lo que leemos.

Pensemos en un traductor que está traduciendo una novela del inglés al español. Al traducir una determinada frase, el traductor se ve ayudado (y a veces necesita) conocer el contexto que rodea a esta frase y las palabras clave que puedan influir en el significado de la frase que está intentando traducir.

Los Transformers, en definitiva, son capaces de transformar (de ahí el nombre) una secuencia en otra usando los dos elementos que ya hemos visto (un codificador y un decodificador) pero con un cambio sustancial, ya que evitan hacer uso de las computacionalmente costosas Redes Neuronales Recurrentes (GRU, LSTM, etc.)

Lo mejor de todo es que se ha comprobado que, usando únicamente mecanismos de atención, es posible capturar la sutileza del contexto y la temporalidad de manera aún más eficiente que con los métodos anteriores.

“The Transformer is the first transduction model relying entirely on self-attention to compute representations of its input and output without using sequence-aligned RNNs or convolution.”

Los Transformers son un ejemplo de tecnología SoTA (State of The Art) que ilustra cómo de rápido está yendo todo en el muno NLP. Como comentaba al comienzo, modelos tan conocidos como BERT de Google y GPT-3 de OpenAI han hecho uso de esta idea y la han llevado a nuevos límites para mejorar sus usos en el manejo del lenguaje, desde predicciones de la siguiente frase hasta dar respuesta a preguntas de manera automática.

Por si fuera poco, los Transformers están siendo analizados para labores que van más allá del NLP como, por ejemplo, su uso para hacer predicciones en series temporales.

2. Historias 📔

El viaje del héroe

Desde el amanecer de los tiempos, los humanos hemos usado historias para entender un mundo que se nos antojaba (y lo sigue haciendo) inexplicable. De hecho, uno de los rasgos más interesantes del homo sapiens es nuestra capacidad para crear historias y, lo que es aún más importante, nuestra capacidad para crear y creer mitos compartidos.

En 1949, Joseph Campbell, un profesor especializado en mitología, publicaba la que sería su obra más importante: “The Hero with a Thousand Faces” (El héroe de las mil caras).

La teoría principal que construye Campbell en su libro es que muchas de las narraciones mitológicas comparten una estructura equivalente, estructura que llamó el “monomito” o “el periplo del héroe”.

Lo interesante de este mito único es cómo es compartido por multitud de historias desde la antigüedad hasta nuestros días. En esta estructura, el héroe se embarca en un viaje circular compuesto de varias etapas:

Si te cuesta ver el patrón, Tal vez estos ejemplos te puedan ayudar a identificarlo:

Parece que, de un modo u otro y de forma espontánea, esta estructura se repite de manera sistemática en el tiempo y en muy distintas geografías.

Cosa que, a algunos autores, como mi admiradísimo Neil Gaiman, les llega a incomodar sobremanera. Se dice que Gaiman, comenzó a leer el libro de Campbell, pero se negó a terminarlo.

"I think I got about half way through The Hero with a Thousand Faces and found myself thinking if this is true—I don't want to know. I really would rather not know this stuff. I’d rather do it because it's true and because I accidentally wind up creating something that falls into this pattern than be told what the pattern is." Neil Gaiman.

La Inteligencia Artificial en las historias

Al igual que este periplo del héroe que hemos visto, hay otro patrón que me resulta interesantísimo en muchas narraciones humanas: el uso de lo mítico y lo místico para explicar lo inexplicable.

Igualmente, este patrón se repite desde los albores de la historia y ha ido variando según hemos avanzado. Al comienzo, estos elementos estaban ligados intrínsecamente a los dioses o a la magia y, paulatinamente, la religión ha ido cediendo terreno a la ciencia y a la tecnología.

Desde Homero hasta Asimov, pasando por Julio Verne, la tecnología ha sido usada con herramienta narrativa en las historias, incluyendo conceptos que creemos tan supuestamente novedosos como la Inteligencia Artificial .

Nada mejor que algunos ejemplos (de entre los muchísimos que existen) para ilustrar cómo ciertas ideas han estado siempre presentes en nuestras historias.

La Odisea de Homero 🧜🏻‍♀️

Tanto en la Ilíada como en la Odisea, Homero introdujo conceptos relacionados con los autómatas que suponen una de las primeras aproximaciones a la Inteligencia Artificial.

En el Canto XIII de la Odisea se dice lo siguiente:

Nómbrame también tu país, tu pueblo y tu ciudad, para que nuestros bajeles, proponiéndose cumplir tu propósito con su inteligencia, te conduzcan allá; pues entre los feacios no hay pilotos, ni sus naves están provistas de timones como los restantes barcos, sino que ya saben ellas los pensamientos y el querer de los hombres, conocen las ciudades y los fértiles campos de todos los países, atraviesan rápidamente el abismo del mar, aunque cualquier vapor ó niebla las cubra, y no sienten temor alguno de recibir daño ó de perderse;

En este verso, se habla de los feacios, un pueblo mítico de la Isla de Esqueria (probablemente la actual Corfú) y de su tecnología de barcos autónomos e inteligentes capaces de surcar los mares sin intervención humana. 

El mago de Oz de L.Frank Baum 👠

En el libro infantil “El maravilloso mago de Oz” de L. Frank Baum y en su posterior adaptación cinematográfica con Judy Garland en el papel de Dorothy, aparece el personaje de El Hombre de Hojalata, una suerte de autómata cuyo único sueño es convertirse en humano.

«Cuando un hombre es una tetera vacía, debería estar con ánimo; y sin embargo estoy destrozado…

Simplemente porque intuyo que podría ser algo parecido a un humano, si simplemente tuviera un corazón…»

Metrópolis de Fritz Lang 🤖

En la película Metrópolis de Fritz Lang estrenada en 1927, aparece ya esa Inteligencia Artificial más cercana a nuestro concepto de hoy: una máquina capaz de tener sentimientos y mostrar emociones.

El robot antropomorfo de la película fue uno de los primeros robots mostrados en el cine y su impacto ha sido tal, que forma parte ya del imaginario colectivo, como así lo atestiguan otros robots inspirados en este como Ultraman o C-3PO.

🎬 La IA en la cultura popular

Todos los anteriores son ejemplos clásicos, pero seguro que también te resultan familiares algunos más actuales como la computadora MultiVac de Asimov, HAL 9000 de 2001: una Odisea del Espacio, C-3PO o R2-D2 de Star Wars, los replicantes en Blade Runner, Ultron en Los Vengadores o Chappie en la película de Neil Blomkamp donde se pone un ejemplo de AGI (Inteligencia Artificial General).

Como queda patente, ademas de las estructuras, los humanos repetimos las ideas y los temas primigenios que nos obsesionan: ¿Qué es lo que nos hace humanos? ¿Podemos crear vida artificial?.

El poder de las historias

Pese a los cambios tecnológicos tan significativos que estamos viviendo, creo que las historias del futuro seguirán siendo, en el fondo, las mismas que siempre han sido. Las mismas que, aparentemente, son parte inseparable de la naturaleza humana.

La tecnología acaba dando forma a nuestras historias y, eventualmente, estas historias acaban moldeando nuestro futuro a modo de profecía autocumplida. La ciencia-ficción es un ejemplo de esta idea, la ciencia modela a la ficción y la ficción modela, en cierta medida, a la ciencia y a la tecnología.

El futuro es algo que se ha de construir, por ello, es importante que utilicemos las historias para imaginar el futuro que queremos y así, tal vez, estaremos un paso más cerca de hacerlo realidad.

¡Gracias por leer hasta aquí!


¿Te gusta The Independent Sentinel? ¡Ayúdanos a llegar a más gente!

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium o solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #19

Un modelo mental para preparar datos, el parpadeo de las estrellas y la colonización de Australia

¡Hola!

Soy Javier Fuentes, de Akoios, gracias por seguir leyendo The Independent Sentinel, la newsletter en español que habla sobre novedades, avances e historias relativas a la Ciencia de Datos.

Si quieres, puedes registrarte para recibir cada edición en tu correo en el botón de abajo:

¡Suscríbete ahora!

Hoy hablamos de cómo preparar los datos, del parpadeo de las estrellas y del descubrimiento y colonización de Australia.

¡Zarpamos! ⛵️


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

🧠 Cómo afrontar la preparación de datos

Como hemos hablado en más de una ocasión, no sólo es importante disponer de buenos datos, sino también tratarlos de manera adecuada para afrontar cualquier iniciativa de Data/Machine Learning.

Por ello, resulta útil disponer de un “mapa mental” que nos ayude a afrontar de forma sistemática y ordenada cómo enfrentarnos con cualquier dataset.

En este fantástico artículo, al autor detalla y clasifica distintos métodos de preparación de datos tabulares según dónde sean aplicados:

  • Transformación de Filas

  • Transformación de Columnas

  • Transformación de Valores

  • Transformación de Columnas y Valores

  • Transformación de Filas y Valores

La siguiente figura sintetiza esta más que útil clasificación:

Usando un marco de trabajo de este tipo, es mucho más sencillo planificar una estrategia para conseguir que, ese dataset que se nos resiste, acabe listo para ser utilizado.

🌟 Twinkle, twinkle, little star

Cómo seguramente habrás notado al mirar las estrellas, éstas suelen mostrar un parpadeo característico (“twinkle”) al ser observadas desde la Tierra.

El término técnico para este parpadeo es astronomical scintillation (centelleo astronómico) y está causado por la atmósfera de la Tierra. Según la luz proveniente de la estrella va atravesando las diversas capas de la atmósfera, va experimentado el efecto de difracción que causa esta variación del brillo que percibimos.

Este efecto (a priori inofensivo) tiene algunas implicaciones importantes. La forma principal en la que los astrónomos identifican nuevos planetas es justamente a través de la medición la “sombra” que generan éstos al orbitar alrededor de una estrella. Por ello, este parpadeo dificulta enormemente la exploración espacial basada en esta técnica.

Afortunadamente, unos investigadores de la Universidad de Sidney, han desarrollado una solución para neutralizar el parpadeo causado por la atmósfera usando Machine Learning.

A través de una red neuronal con activación ReLU debidamente entrenada, los científicos han conseguido unos resultados excelentes en la corrección del parpadeo, consiguiendo así imágenes más estables y aptas para el estudio.

Como curiosidad para los más técnicos, la red fue implementada en Keras con Tensorflow, tal y como explican en este paper que ha sido publicado.

Lo mejor de todo es que este avance va a ser desplegado de manera inminente en el telescopio japonés Subaru, ubicado en la cima del volcán Mauna Kea de la isla de Hawaii. Telescopio que, por cierto, tuve la suerte de poder visitar hace años.

Ad Astra!

2. Historias 📔

El descubrimiento de Australia

📚 Un poco de historia

En 1762 se producía la llamada Toma de Manila (Filipinas) por parte de los británicos, hecho que marcaría el comienzo del fin de la presencia española en Asia y el Pacífico.

Tras la ocupación, Alexander Dalrymple (espía, cartógrafo y último gobernador británico de Manila), ordenó saquear los fondos documentales de la ciudad, por aquel entonces, el centro cartográfico más importante del Pacífico.

Entre los tesoros documentales y cartográficos, Dalrymple se hizo con todo el trabajo mapístico de Andrés de Urdaneta, un religioso agustino que destacó por sus labores como militar, marino, explorador y cosmógrafo y que ha pasado a la historia por el llamado Tornaviaje de Filipinas: La Ruta de Filipinas a Acapulco.

Tras el saqueo, Dalrymple se dio cuenta de la magnitud del hallazgo. En particular, le llamo la atención la documentación de Andrés de Urdaneta relativa a un mundo aún por descubrir, llamado por entonces Terra Australis Incognita.

Dalrymple regresó a Londres en 1765 para solicitar respaldo a la East India Company para una aventura en la que las pasadas expediciones británicas habían fracasado estrepitosamente: La colonización de este nuevo continente.

La persona designada para esta misión, no fue otra que un todavía desconocido James Cook que, utilizando la cartografía española elaborada por Urdaneta, definió el rumbo y el éxito último de la expedición.

El resto es historia.

📖 El Archivo de Indias

Unos años más tarde, en 1785, el rey español Carlos III decidió que era el momento de centralizar toda la documentación referente a la administración de los territorios ultramarinos españoles. Toda esta documentación estaba dispersa hasta ese momento en los archivos de Sevilla, Cádiz y Simancas.

Como sede para albergar el archivo, se escogió la Casa Lonja de Mercaderes, obra del arquitecto Juan de Herrera construida bajo el mandato de Felipe II.

A día de hoy, este Archivo contiene la nada desdeñable cifra de 43000 legajos, 80 millones de páginas y 8000 mapas, siendo la principal fuente de información sobre la historia de España en América (desde el sur de Estados Unidos hasta Tierra de Fuego) y Filipinas entre los siglos XV y XIX.

Se estima que sólo se ha analizado un 10% de este total de 80 millones de páginas.

⛵️ El proyecto Carabela

Desde hace varios años, investigadores de la Universitat Politécnica de València liderados por el catedrático Enrique Vidal junto con investigadores del Centro de Arqueología Subacuática (CAS) de Cadiz, se hayan embarcados (nunca mejor dicho) en una apasionante misión: El proyecto Carabela.

Este proyecto tiene como objetivo analizar mediante Inteligencia Artificial registros como el Archivo General de Indias o el Archivo Histórico Provincial de Cádiz.

La tarea no es baladí ya que, más allá de identificar los caracteres escritos usando OCR, están aplicando modelos de lenguaje para identificar y relacionar términos equivalentes usando indexación probabilística, del mismo modo que hacen los buscadores de Internet.

De este modo, al realizar un búsqueda que contenga por ejemplo, la palabra “navío”, se devuelven también resultados asociados a términos como “barco”, “carabela”, “nao” o “galeón”, entre otros.

Obviamente, este modelo ha requerido un entrenamiento supervisado para ser capaz de detectar matices como:

  • Variaciones en la escritura con el tiempo

  • Cambios entre la “v” y la “b”

  • Sinónimos entre palabras

Al parecer, tras el análisis llevado a cabo con la tecnología de Carabela, se han podido identificar alrededor de 150 naufragios desconocidos 🤯.

El proyecto Carabela está disponible en la web, aunque con ciertas limitaciones para evitar posibles rastreos de información dirigidos a la identificación y expolio de estos yacimientos subacuáticos.

🇪🇸 El descubrimiento español de Australia

Además de los tesoros sumergidos, Carabela está realizando otros hallazgos sorprendentes. Al buscar por la cadena “Tierra Austral Incognita” se ha encontrado una misiva de principios del siglo XVIII dirigida al rey Felipe V.

En esta carta, redactada por el jesuita Andrés Serrano, se hacen menciones muy precisas sobre la ubicación de esta “Tierra Austral” datadas de 1705, mucho antes de que el Capitán Cook llegase a sus costas.

En la misiva, Serrano -ubicado en Manila en aquel momento- solicitaba al Rey recursos para ir a colonizar esa tierra repleta de almas por evangelizar. Asimismo, en la carta dejaba constancia de que Luis Váez de Torres y Pedro Fernández de Quirós habían descubierto este nuevo continente en pasadas expediciones.

Muy seguramente, Urdaneta conoció y trabajó sobre los descubrimientos de Serrano e incluyó en sus mapas las referencias a los descubrimientos de Váez de Torres y Quirós. Mapas que, como hemos visto, acabaron en manos británicas cambiando el rumbo de la historia.

Una vez más, vemos como el Machine Learning nos puede ayudar a descubrir secretos del pasado e incluso, como en esta ocasión, a poder reescribirlo.

¡Gracias como siempre por leer hasta aquí!


¿Te gusta The Independent Sentinel? Ayúdanos a que más gente conozca esta newsletter compartiendo nuestras publicaciones en redes sociales o contándoselo a tus amigos y familiares.

Si tienes comentarios o quieres arrancar una conversación, recuerda que puedes hacerlo al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 Si quieres conocer mejor cómo funciona nuestra tecnología Titan, puedes revisar nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

The Independent Sentinel #18

Un homenaje a Dalí, modelos que fallan y el gusano más importante del mundo

¡Hola!

Soy Javier Fuentes, de Akoios, bienvenido a esta primera edición de The Independent Sentinel en 2021, la newsletter en la que hablamos sobre cómo la Ciencia de Datos está cambiando el mundo poco a poco.

Si quieres suscribirte para recibir por correo cada edición, puedes hacerlo aquí:

¡Suscríbete ahora!

En esta edición hablaremos de una increíble aplicación de GPT-3, de modelos que se equivocan y del gusano más importante del mundo.

¡Comenzamos! 🔥


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Ciencia de Datos

Casos de uso ⚙️

En los últimos meses seguramente hayas oído hablar de GPT-3 (lo hicimos aquí también en TIS #11) y, tal vez, incluso hayas visto u oído algo sobre lo último de OpenAI: DALL·E.

Dall·e es una versión de 12 billones de parámetros de GPT-3, específicamente entrenada para generar imágenes a partir de textos de manera automática. El nombre viene de la mezcla entre el personaje de Pixar Wall·e y nuestro mundialmente conocido Salvador Dalí.

Su modo de operar es fácil de entender. Utilizando como entrada una cadena de texto, Dall·e es capaz de generar una imagen en función de lo interpretado. En la página de proyecto de OpenAI hay varios ejemplos muy ilustrativos.

Por ejemplo, a partir de este texto de entrada: a pentagonal green clock. a green clock in the shape of a pentagon, Dall·e es capaz de “sintetizar” las siguientes imágenes:

Como se puede ver, el resultado es significativamente bueno, y sorprende la capacidad de Dall·e para entender conceptos y reflejarlos en forma de imagen, haciendo intuir cierta lógica y racionalidad en sus resultados.

Las siguiente figura muestra un resumen de las capacidades demostradas (¡algunas no previstas de antemano!) por el modelo:

Es muy llamativo cómo estas grandes redes alimentadas de forma masiva con datos nos estructurados, son capaces de demostrar esta versatilidad al ser puestas a prueba en tareas complicadas.

Aunque Dall·e no está libremente accesible, se puede jugar con los ejemplos que tienen publicados en su web.

Los detalles del modelo y su entrenamiento aún no son del todo conocidos y serán publicados en un paper que verá la luz en breve. Lo que sí sabemos es que la arquitectura de la red neuronal que utiliza está basada en el modelo Transformer, del que hablaremos detalladamente en otra edición.

Aún estamos lejos de poder hablar de verdadera inteligencia, pero sí que podemos asegurar que las máquinas están haciendo cosas que jamás habíamos visto.

Ética 🤔

En el camino del desarrollo de la IA, no son todo grandes avances y resultados sorprendentes. Por el contrario, los modelos no siempre son tan fiables o robustos como sería deseable y, a menudo, no se comportan igual de bien cuando trabajan con datos reales que no han visto previamente.

En este sentido, la organización Partnership on AI, que aglutina a diversas empresas, instituciones educativas y asociaciones, se dedica a estudiar el impacto de la Inteligencia Artificial en la sociedad y en las personas.

Una de sus iniciativas es la llamada “AI Incident Database”, que recopila fallos de modelos que han sido puestos en funcionamiento.

Algunos de los casos serían dignos titulares para El Mundo Today. Algunos ejemplos:

El portal recopila más de 1000 incidentes y merece la pena echar un vistazo para, al menos, no sentirnos tan mal cuando nuestros modelos no funcionan como esperábamos.

2. Historias 📔

🎲 Determinismo Vs. Libre Albedrío

Como seguro que te pasa a ti también, hay preguntas que se me han planteado recurrentemente a lo largo de mi vida. Una de esas preguntas versa sobre nuestra libertad a la hora de tomar las decisiones.

¿Elegimos nuestras acciones de manera libre y voluntaria o, por el contrario, son causas previas y condicionantes externos los que determinan nuestros actos?

Esta no es ni de lejos una pregunta nueva, es un debate pre-Socrático que lleva siglos siendo discutido en el debate del Libre Albedrío frente al Determinismo.

Esta discusión (en principio filosófica) se ha ido trasladando también al ámbito científico, ya que la ciencia nos está acercando a una posible -aunque aún lejana- respuesta.

🐛 El gusano más importante del mundo

Los lectores más antiguos de The Independent Sentinel, recordarán que ya hablamos de un curioso gusano, el C. Elegans, en una edición anterior.

El Caenorhabditis Elegans es un nematodo de apenas un milímetro de longitud que vive en ambientes templados y que es tremendamente importante para los humanos por varias razones:

  • Es un organismo cuyo genoma es perfectamente conocido.

  • Se dispone de muchísima información sobre su comportamiento.

  • Es transparente, lo que facilita el análisis de sus órganos internos.

Históricamente, el C. Elegans ha sido utilizado como modelo experimental para estudios genéticos. De hecho, fue el primer organismo multicelular del que se tuvo su genoma secuenciado. Por ello, ha sido de muchísima utilidad para estudiar la obesidad, la diabetes, el Alzheimer e incluso el envejecimiento.

Además de todo lo anterior, este gusano tiene una característica muy interesante: Su “sencillo” sistema nervioso está compuesto por únicamente 302 neuronas, de las que, además, se ha “mapeado” su conexión estructural.

🧪 El proyecto OpenWorm

El auge del y abaratamiento de los costes de computación junto con los nuevos métodos y algoritmos que han ido surgiendo en los últimos años, han hecho que se recupere el interés sobre un campo apasionante: Las simulaciones biológicas de gran escala.

En este sentido, el proyecto OpenWorm, fue creado con el objetivo de crear vida artificial y poder simular computacionalmente el comportamiento del C. Elegans.

Los retos principales de este ambicioso proyecto son dos principalmente:

  • Modelar las propiedades neurológicas/eléctricas del cerebro para entender cómo procesa la información.

  • Modelar las propiedades mecánicas del cuerpo del gusano que hacen que se mueva.

El equipo ya dispone de un modelo del cerebro y sus conexiones (lo que se conoce como connectome) en un formato llamado NeuroML, un estándar para describir modelos computacionales de redes de neuronas (biológicas).

Como no podría ser de otro modo, varios modelos de Machine Learning han empezado a ser aplicados para ayudar en el modelado y la simulación de las partes más complejas como, por ejemplo, la simulación del movimiento que hemos mencionado.

El objetivo último de este proyecto y, en general, de este tipo de simulaciones, es avanzar en nuestra comprensión del funcionamiento de sistemas tan extremadamente complejos como el cerebro humano.

🙇 ¿Somos libres?

Haciendo una acrobacia intelectual y llevando al extremo del éxito a la idea planteada en OpenWorm, nos acercaríamos a un escenario ubicado probablemente en la ciencia-ficción.

Si pudiésemos saber a priori cómo actuaría el gusano en función de a) su estado actual y b) las condiciones en su entorno, estaríamos de hecho prediciendo su futuro inmediato 🤯

Esto nos lleva de vuelta a la pregunta de partida y al debate del determinismo frente al libre albedrío para el que aún no tenemos respuesta. Tal vez algún día seamos capaces de entender por completo cómo se rige el universo y, puede que, eventualmente descubramos que estamos en un universo determinista de tal complejidad emergente, que nos genera una ilusión -casi perfecta- de libertad.

¡Gracias como siempre por leer hasta aquí! Hasta pronto 🙋🏻‍♂️


¿Te gusta The Independent Sentinel? ¡Ayúdanos a llegar a más gente compartiendo la newsletter!

Si tienes comentarios o quieres iniciar una conversación, recuerda que puedes hacerlo al final de la publicación.

Si te has perdido alguna edición de la newsletter, puedes leer todas aquí.

👉 ¿Quieres conocer nuestra tecnología Titan? No te pierdas nuestra serie de tutoriales publicados en Medium.

👉 Si te interesa, puedes solicitar un acceso gratuito para probar Titan aquí https://lnkd.in/gPz-2mJ

Loading more posts…