The Independent Sentinel #03

Interpretación de modelos, GANs y luditas del siglo XXI

¡Hola!

Bienvenido a una nueva edición The Independent Sentinel, la newsletter de Akoios en la que hablamos de Inteligencia Artificial, Machine Learning y Ciencia de Datos entre otras cosas.

¿Aún no estás suscrito? ¡Hazlo ahora!

¡Suscríbete ahora!

Hoy vamos a hablar de cómo interpretar modelos, las redes generativas antagónicas (¡que nadie se asuste!) y el eterno debate sobre la tecnología y su utilización.

Here we go!


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Inteligencia Artificial 🤖

Interpretando los modelos de Machine Learning 🤔

Cuando estamos usando modelos de IA/ML, no siempre es fácil saber qué se está computando y qué pasos está dando el algoritmo a la hora de obtener un resultado.

Esta dificultad para interpretar cómo esta funcionando un determinado modelo es una de las razones que está retrasando la adopción del Machine Learning en los negocios.

Podríamos decir que hay dos tipos de modelos de Machine Learning:

1️⃣ El primer tipo son los modelos black box (caja negra). En estos tipo de modelos, es difícil determinar de forma clara las razones por las que el algoritmo proporciona una decisión.

2️⃣ El segundo tipo son los modelos transparentes, en los que hay un razonamiento claro detrás de las decisiones que un algoritmo toma.

Por lo general, los modelos transparentes son más difíciles de construir pero éstos son preferibles en múltiples dominios (salud, ámbito legal, banca…)

Imaginemos por ejemplo un banco que utiliza un sistema que se apoya en IA/ML para la concesión de créditos a sus clientes.

¿Cómo poder explicarle a un cliente las razones de porqué no se le han concedido un préstamo si nadie sabe (¡ni la persona que haya desarrollado el modelo!) cuál ha sido el criterio?

Un caso típico de modelo black box son las Deep Neural Networks, dónde harían falta millones de números y operaciones para poder describirla y, aun así, seguramente tampoco seríamos capaces de entender de forma precisa su comportamiento.

La regresión logística o los árboles de decisión (decision trees), por ejemplo, son un ejemplo de modelo transparente ya que tienen una fácil interpretación o “explicabilidad”.

Cabe destacar que, pese a que lo ideal sería tender hacía modelos transparentes, lo cierto es que en términos de rendimiento y resultados, son los modelos black-box los que mejor están funcionando. Y no solo eso, sino que, si nos fijamos en las competiciones de Kaggle, se ve que cada vez más, los modelos ganadores son aquellos que mezclan diversas técnicas (esto se suele llamar “ensembles”) que hacen aún más difícil e intrincada la “explicabilidad” del modelo.

Cristoph Molnar, un científico de datos alemán ha escrito un interesante libro a este respecto llamado “Interpretable Machine Learning

En el libro, el autor habla de forma detallada cómo interpretar (o al menos intentarlo), todo tipo de modelos, desde una regresión lineal hasta redes neuronales. Además, explica técnicas de interpretación y métodos aplicables para explicar los modelos.

The big picture of explainable machine learning. The real world goes through many layers before it reaches the human in the form of explanations.


Modelos y Algoritmos 💻

Las GAN (Generative Adversarial Network) son arquitecturas de redes neuronales utilizadas para hacer “modelado generativo”. ¿Qué es esto del “modelado generativo”?

El “modelado generativo” consiste en usar un modelo que permita generar nuevas muestras de una determinada distribución como, por ejemplo, generar nuevas imágenes que guarden cierta similitud con un conjunto de fotografías de partida.

Veamos más en detalle cómo funcionan las GANs. De forma muy resumida, las GANs son un modelo generativo que se entrena usando dos modelos de redes neuronales distintas. Uno de los modelos es llamado “generator” o “generative network” y es el encargado de crear nuevas muestras plausibles. El otro modelo es el denominado “discriminator” o “discriminative network” y es el que aprende a diferenciar las muestras generadas (e.g. fotos generadas) de muestras reales (e.g. fotos reales).

Imagen extraída del blog de Luis Herranz

A estos dos modelos, se les hace competir en un juego (en el sentido de la teoría de juegos) dónde el modelo generador trata de engañar al modelo discriminador.

Una vez entenada, ¡una GAN será capaz de crear nuevas muestras bajo demanda indistinguibles de las muestras de entrenamiento!

El conocido investigador Yann Lecun se refirió a las GANs como:

“the coolest idea in machine learning in the last twenty years.”

Casos de uso ⚙️

Siguiendo con las GANs, hay multitud de aplicaciones que nos pueden ayudar a intuir qué tipo de cosas se pueden hacer con estos modelos.

Generación de muestras para datasets de imágenes

En el paperGenerative Adversarial Networks” (Ian Goodfellow, et al. 2014), se describe cómo se usaron GANs para generar muestras “plausibles” para conocidos datasets como MNIST (números escritos a mano), CIFAR-10 (pequeñas fotografías de objetos) o la Toronto Face Database.

Generación sintética de caras humanas

Esta aplicación ha tenido mucha repercusión y ha sido mencionada en diversos medios de comunicación. En el paper Progressive Growing of GANs for Improved Quality, Stability, and Variation (Tero Karras, et al. NVIDIA, 2017) se demuestra cómo es posible generar caras artificiales. En este caso, se usaron para el entrenamiento caras de famosos, por lo que es posible ver rasgos familiares. La verdad es que los resultados son realmente notorios:

Lo mejor de todo es lo rápido que han evolucionado las GANs para conseguir resultados que, a día de hoy, son difícilmente distinguibles de la realidad:

Realmente, todo lo contado arriba es sólo el principio. Seguro que habéis oído hablar de los DeepFakes u os han enseñado aplicaciones polémicas como FakeApp o faceswap, aplicación esta última que genera inquietantes resultados:

¡Detrás de todo esto no hay otra cosa que GANs!

En los últimos meses, un artista conocido por el pseudónimo de Ctrl Shift Face (Youtube, Reddit) esta liberando vídeos con resultados increíbles. Mejor verlo:

En este vídeo se muestra a Jim Carrey “intercambiado” con Jack Nicholson en El Resplandor.

En este otro ejemplo, la cara de Bill Hader (un famoso imitador) cambia de forma imperceptible a la cara de Arnold Schwarzenegger cuando éste imita su voz:

Si deseas saber más sobre todo esto, puedes echar un vistazo a la herramienta DeepFaceLab (GitHub) que se está usando para todo esto.

Otro usos de las GANs

Además de todo lo visto, las GANs tienen todavía más usos como puedes ver en este fantástico artículo de Jason Brownlee.

En fin, what a time to be alive!

2. Historias 📔

Las rebeliones contra las máquinas

En el siglo XIX, durante la Revolución Industrial, muchos trabajadores vieron empeorar sus condiciones laborales y de vida debido a la creciente utilización de maquinaria industrial.

Lo cierto es que muchos trabajadores cualificados y de clase media en aquellos tiempos, vieron cómo la aparición de las máquinas hizo que comenzasen a ser sustituidos por trabajadores menos cualificados y con menor salario.

En respuesta a este fenómeno apareció el movimiento ludita, conocido por los sabotajes y la destrucción de aquellas máquinas que consideraban sus enemigas:

El nombre ludita tiene supuestamente como origen a Ned Ludd, un joven aprendiz del que se rumoreaba que había comenzado a destruir telares en 1779. No hay evidencias de la existencia de este tal Ludd, que se acabo convirtiendo en un líder mítico a lo Robin Hood. Abajo un dibujo de Ned Ludd:

Por todo esto, ludita es actualmente la palabra que usamos para referirnos a todas esas personas que aborrecen la tecnología.

La Historia, con su naturaleza algo cíclica, nos ha traído luditas de forma recurrente que se han ido oponiendo de forma sistemática a los avances tecnológicos. El discurso neoludita resurge de forma regular con cada nueva tecnología y la Inteligencia Artificial no iba a ser menos.

En concreto, el temor a la IA/ML se fundamenta en la capacidad de estas nuevas tecnologías para automatizar tareas que, como siempre, eran llevadas a cabo hasta el momento por humanos.

El economista e historiador Carl Benedikt Frey aporta su visión sobre el impacto de la tecnología en el trabajo en este breve e interesante vídeo:

En nuestros tiempos, y en lo relativo a la Inteligencia Artificial, el histórico debate sobre nuestras relación con las máquinas ha alcanzado un nuevo nivel. Esto es debido en gran medida, a lo difícil que es predecir cómo evolucionará la Inteligencia Artificial, cuál será su impacto en el medio-largo plazo o si incluso será algo que pueda escapar de nuestro control (¡cómo no pensar en Hal 9000 o Skynet!)

Como ejemplo de este complejo debate, seguramente recordareis la polémica entre Elon Musk y Mark Zuckerberg a este respecto.

Elon Musk que, según sus palabras, está muy cerca de los avances de la IA, se ha mostrado impresionado -y a la vez temeroso- de lo que la IA puede hacer ya y, sobre todo, de lo que podrá hacer. Por ello, Musk se muestra muy cauteloso sobre los avances en IA y propone regular de forma temprana todo lo relacionado con este ámbito para evitar perder el control.

En cambio, Zuckerberg tiene una visión más optimista acerca de cómo la IA puede ayudar a los humanos en el corto plazo en temas de salud (mejores diagnósticos), transporte (menos accidentes) y muchos otros aspectos. Mark Zuckerberg llegó a llamar "irresponsable” a Elon Musk por su visión tan fatalista sobre el futuro de la IA.

La respuesta de Elon a Mark no se hizo esperar 🥊:

En el siguiente vídeo se resumen las posiciones y el enfrentamiento entre estos dos gigantes de la tecnología (¡aparece también Bill Gates hablando dando su opinión sobre el tema!).

Ray Kurzweil (¡del que hablaremos otro día!) tiene una posición “intermedia” sobre el asunto, dónde percibe riesgos y beneficios:

Como bien cuenta en el vídeo, todo esto no es nuevo:

Technology has been a double-edged sword ever since fire and stone tools.

Sin entrar a discutir las posiciones de cada uno, creo que hay una conclusión clara: Tenemos que hacer todo lo que esté en nuestra mano para usar la tecnología para buenos fines y, en paralelo, gestionar, controlar e intentar solventar sus peligros y “downsides”.

Es nuestra obligación como especie y sirve a nuestro propósito común: sobrevivir, trascender nuestras limitaciones y expandirnos. Es lo que los humanos siempre hemos hecho, ¿no?

¡Hasta pronto!


¿Estás disfrutando The Independent Sentinel? ¡Ayúdanos a llegar a más gente compartiendo nuestras publicaciones en RRSS!

¿Te has perdido los números anteriores? Puedes leerlos aquí:

The Independent Sentinel #02

Bayes, robots que hacen música y la máquina más inútil del mundo

¡Hola!

Estás leyendo The Independent Sentinel, la newsletter que hacemos en Akoios mientras ayudamos a las empresas a implantar de forma efectiva el Machine Learning en sus negocios.

¿Aún no estás suscrito? ¡Hazlo ahora!

¡Suscríbete ahora!

3,2,1… ¡Comenzamos!


🎼  ¿Quieres banda sonora? ¡Dale al Play!


1. Inteligencia Artificial 🤖

El Teorema de Bayes: El Santo Grial de la Ciencia de Datos 🏆

La incertidumbre es algo que los humanos siempre hemos tratado mitigar ya que nos obliga a tomar decisiones con información incompleta.

La herramienta que hemos venido utilizando para enfrentarnos a la (natural) incertidumbre del universo es la teoría de la probabilidad, un campo de las matemáticas dedicado a cuantificar y entender esta incertidumbre.

Aún a día de hoy, hay dos interpretaciones distintas de la probabilidad, la Frecuentista y la Bayesiana -de la que hablaremos hoy-. ¡En una próxima edición hablaremos del dilema entre frecuentistas y bayesianos!

Seguro que muchos habréis estudiado o al menos habréis oído hablar del Teorema de Bayes enunciado por el reverendo Thomas Bayes y publicado de forma póstuma en 1763

El Teorema de Bayes es muy importante en el ámbito de la Ciencia de Datos, entre otras cosas, por aplicaciones como la llamada inferencia Bayesiana, que nos permite actualizar la probabilidad de una hipótesis según vamos disponiendo de más información, ¡justamente en lo que consisten los algoritmos de aprendizaje máquina!

Si estás interesado en comprender la estadística Bayesiana, te recomiendo leer el libro Think Bayes de Allen B. Downey que puedes descargar clickando en la imagen:

Lo que me encanta de este libro y de toda la serie “Think” del autor es que usa la programación como herramienta de aprendizaje. Él mismo lo resume muy bien al comienzo del libro:

The premise of this book, and the other books in the Think X series, is that if you know how to program, you can use that skill to learn other topics.

Most books on Bayesian statistics use mathematical notation and present ideas in terms of mathematical concepts like calculus. This book uses Python code instead of math, and discrete approximations instead of continuous mathematics. As a result, what would be an integral in a math book becomes a summation, and most operations on probability distributions are simple loops.

Además, está disponible todo el código de cada capítulo en Notebooks para poder ejecutarlo rápidamente, ¡una auténtica maravilla para ponerse a aprender rápidamente!

Casos de uso ⚙️

Muchos esperábamos que la relación entre los robots y la música fuesen androides tipo Terminator tocando como una banda de Rock:

Mientras esperamos a que llegue este momento, se están realizando increíbles avances en la síntesis artificial de composiciones musicales.

En MuseNet, una iniciativa arrancada por OpenAI, han creado una Red Neuronal Profunda (Deep Neural Network) capaz de generar composiciones de 4 minutos combinando 10 instrumentos y combinando estilos (Mozart y los Beatles por ejemplo).

Lo maravilloso de todo esto es que MuseNet no se programó de forma explicita para esta labor, sino que ha sido capaz de encontrar patrones de armonía y ritmo de forma no supervisada, adquiriendo la capacidad de predecir cual es la siguiente nota o notas a tocar en la composición y de mezclar estilos de forma convincente.

Para muestra, un botón:

En esta composición, al modelo se le proporcionaron las 6 primeras notas de un Nocturno de Chopin y se le pidió generar una pieza pop con piano, batería, bajo y guitarra. ¡Ojo al segundo 32 en el que entra toda la banda!

Concretamente, este modelo usa una red neuronal de 72 capas y ha sido alimentada con diversas fuentes de ficheros MIDI como ClassicalArchives y BitMidi.

Modelos y Algoritmos 💻

Siguiendo con Bayes, un modelo muy conocido es el conocido como “Naive Bayes”. Un modelo “Naive Bayes” es un modelo de machine learning probabilístico usado frecuentemente para tareas de clasificación.

En este artículo, explican de manera muy entendible cómo funciona este conocido modelo.

Estos algoritmos son comúnmente usados en sentiment analysis, detección de spam, sistemas de recomendación, etc. ya que son rápidos y sencillos de implementar.

Su única desventaja es que da por supuesto que todos los predictores son independientes, de ahí el “naive” del nombre. ¡En la vida real las variables que manejemos serán casi siempre dependientes en algún grado!

👉 Si te estás preguntando cómo podrías poner a funcionar de forma productiva modelos como este o similares, escríbenos o agenda una demo y te contamos cómo te podríamos ayudar 😉

2. Historias 📔

Marvin Minsky, Claude Shannon y la máquina más inútil del mundo

El 24 de Enero de 2016, moría en Boston a los 88 años Marvin Minsky, considerado por muchos como uno de los padres de la Inteligencia Artificial. Minsky realizó múltiples aportaciones en ciencia cognitiva y ciencias de la computación y reflexionó sobre la relación entre la Inteligencia Artificial y la filosofía.

Si tienes tiempo, te recomiendo ver esta entrevista realizada en 2004 dónde hablaba sobre el futuro de la Inteligencia Artificial:

Minsky fue uno de los fundadores del laboratorio de Inteligencia Artificial del MIT. Destacar que, en este laboratorio, se forjó en gran medida la cultura hacker y, debido al entorno de libertad que Minsky generó en el mismo, creo las bases del movimiento Open Source, tal y como se puede ver en la carta de despedida que se le dedicó en opensource.com:

Along with his impressive intellectual achievements, he left a legacy of the seeds of open source. He inspired his students to experiment with early computers, and they did so with an enthusiasm that bordered on mania. He encouraged development of games and play with what were then fantastically expensive machines.

En 1969, ganó el prestigioso Turing Award, el galardón más importante en ciencias de la computación y, por si fuera poco, Minsky asesoró al mismísimo Stanley Kubrick en el rodaje de la extraordinaria 2001: Una odisea en el espacio en 1968, una película que sin duda merecería una edición exclusiva de esta newsletter.

Como nota curiosa, uno de los personajes, Victor Kaminsky, es nombrado así en su honor.

Resultado de imagen de 2001 space odyssey hal 9000
HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"

Pero no es de todo esto de lo quería hablar, sino de la que seguramente sea su creación más conocida y a la vez más (in)útil: “The useless machine”.

Es sabido que Minsky dedicaba parte de su tiempo en los laboratorios Bell a inventar gadgets inútiles o absurdos, como por ejemplo una campana que sonaría si, en algún momento, la fuerza de la gravedad cambiase.

En este laboratorio, una de sus ideas, cautivó a unos de sus compañeros, el famoso Claude Shannon (¡del que hablaremos también otro día!) que se decidió a construirla.

La idea era sencilla: construir una máquina cuyo único propósito fuese apagarse a sí misma.

Shannon construyó la máquina con un cofre, una prótesis, un compresor y un cilindro neumático. El funcionamiento era sencillo, cuando se pulsaba el botón “ON”, se abría el cofre y la mano apagaba de nuevo la máquina.

Aquí se puede ver una máquina de este tipo en funcionamiento:

Los laboratorios Bell recibían visitas de forma recurrente y uno de sus visitantes más asiduos era el gran Arthur C. Clarke, uno de los pioneros de la Ciencia-Ficción. Clarke quedó impresionado con la máquina que Shannon había construido y escribió lo siguiente sobre la misma en uno de sus libros:

Nothing could be simpler. It is merely a small wooden casket, the size and shape of a cigar box, with a single switch on one face. When you throw the switch, there is an angry, purposeful buzzing. The lid slowly rises, and from beneath it emerges a hand. The hand reaches down, turns the switch off and retreats into the box. With the finality of a closing coffin, the lid snaps shut, the buzzing ceases and peace reigns once more. The psychological effect, if you do not know what to expect, is devastating. There is something unspeakably sinister about a machine that does nothing — absolutely nothing — except switch itself off.

Como bien dice Clarke, hay algo inquietante y siniestro en una máquina que no hace nada excepto apagarse a sí misma.

Hay que gente que piensa que Minsky solo pretendía hacer un chiste sofisticado, pero yo creo que hay algo de trasfondo filosófico en todo esto. The Useless Machine es un dispositivo que tiene una función pero ningún propósito. Quién sabe, puede ser que Minsky nos estuviese lanzando una pregunta:

¿De qué sirve una función si no se tiene un propósito?

Gracias por leer hasta aquí. ¡Hasta la próxima edición!

Puedes leer la edición anterior aquí. Si te ha gustado, spread the word!

The Independent Sentinel #01

por Javier Fuentes, CEO @ Akoios

¡Hola!

Antes de nada, muchas gracias por tu interés en nuestra newsletter.

Soy Javier Fuentes, CEO de Akoios, una empresa que proporciona soluciones de Inteligencia Artificial y Machine Learning para compañías de todo tipo.

En esta newsletter, hablaremos sobre Inteligencia Artificial, Ciencia de Datos y Computación entre muchas otras cosas. Quiero compartir curiosidades, reflexiones y aprendizajes para conocer mejor este mundo.

¡Bienvenido a esta primera edición de The Independent Sentinel! Y si aún no lo has hecho:

¡Suscríbete ahora!


🎼  ¿Quieres banda sonora? ¡Dale al Play!


El origen del nombre 🕵️

Una de las películas que más me marcó en mi infancia, y que aún sigue estando entre mis favoritas, fue Blade Runner. Me atrevo a decir que de esta película nace mi interés tanto por la Inteligencia Artificial como por la Ciencia-Ficción.

Si alguien se acuerda, The Independent Sentinel es el nombre del periódico que aparece leyendo Deckard en la película, de ahí el nombre de esta newsletter.

Si os fijáis en la imagen, se pueden ver los dos titulares de ese día en el periódico:

  • Farming the oceans, the moon and antarctica

  • “World Wide Computer Linkup Planned”

Mención especial al segundo titular, ¡la película fue lanzada en 1982 y lo que conocemos como la World Wide Web no llegaría hasta 1989! Una predicción digna de Julio Verne.

Casualmente, la película transcurre en un Los Angeles distópico en 2019, así que, aunque todavía no tenemos coches voladores, por lo menos nos hemos adelantado 30 años a esa red de ordenadores interconectados que preveía Ridley Scott en la película.

¡Comenzamos!


1. Inteligencia Artificial 🤖

Ways to think about machine learning

En este brillante artículo, Ben Evans de a16z, nos da las claves sobre cómo entender de manera adecuada el machine learning y su impacto en la sociedad y en la economía.

En contraposición con todo lo que se oye en los medios relativo a la Inteligencia Artificial (Los datos son el nuevo petróleo, Google y Facebook tienen todos los datos, La IA eliminará millones de puestos de trabajo…), Ben Evans propone centrar la discusión en términos más relevantes:

  • Automation

  • Enabling technology layers

  • Relational Database

Me resulta especialmente interesante el paralelismo que establece entre las bases de datos relacionales y el machine learning:

Databases were record-keeping systems; relational databases turned them into business intelligence systems. 

This changed what databases could be used for in important ways, and so created new use cases and new billion dollar companies. Relational databases gave us Oracle, but they also gave us SAP, and SAP and its peers gave us global just-in-time supply chains - they gave us Apple and Starbucks. By the 1990s, pretty much all enterprise software was a relational database (…) this technology became an enabling layer that was part of everything.

So, this is a good grounding way to think about ML today - it’s a step change in what we can do with computers, and that will be part of many different products for many different companies. Eventually, pretty much everything will have ML somewhere inside and no-one will care

Recomiendo leer el artículo completo pero, si no tienes tiempo, aquí va un breve resumen:

  • Machine learning may well deliver better results for questions you're already asking about data you already have, simply as an analytic or optimization technique.

  • Machine learning lets you ask new questions of the data you already have. For example, a lawyer doing discovery might search for 'angry’ emails, or 'anxious’ or anomalous threads or clusters of documents, as well as doing keyword searches,

  • Machine learning opens up new data types to analysis - computers could not really read audio, images or video before and now, increasingly, that will be possible.

Casos de uso ⚙️

Tiempos de entrega en UBER Eats: En UBER hacen un uso intensivo de machine learning para realizar todo tipo de predicciones, entre ellas, estimar el tiempo estimado de entrega (Estimated Delivery Time), teniendo en cuenta multitud de variables del pedido (ubicación, hora del pedido), históricas (tiempo medio de preparación de comida en la última semana e incluso de tiempo real (tiempo de preparación medio en la última hora o estado actual del tráfico).

En UBER, utilizan su propia plataforma llamada Michelangelo para gestionar extremo a extremo la gestión de los modelos desde su creación hasta la puesta en productivo. 

👉 Si te interesan este tipo de plataformas, ponte en contacto con nosotros, ¡es justamente lo que hacemos en Akoios!

El motor de recomendación de Amazon: Amazon lleva desde sus comienzos trabajando de forma obsesiva en su motor de recomendación. Según un estudio de McKinsey, a día de hoy el 35% de las ventas de Amazon se originan mediante recomendación algorítmica. En este artículo de 2003, se detalla cómo y por qué Amazon ha utilizado la conocida técnica “Item-to-Item Collaborative Filtering” para su recomendador:

For large retailers like Amazon.com, a good recommendation algorithm is scalable over very large customer bases and product catalogs, requires only subsecond processing time to generate online recommendations, is able to react immediately to changes in a user’s data, and makes compelling recommendations for all users regardless of the number of purchases and ratings. Unlike other algorithms, item-to-item collaborative filtering is able to meet this challenge.

Modelos y Algoritmos 💻

Entendiendo las Redes Neuronales desde cero, un fantástico vídeo del ma-ra-vi-llo-so canal de YouTube 3Blue1Brown en el que explica, sin necesidad de conocimientos avanzados, en qué consisten las redes neuronales.

Os aseguro que merece la pena ver todos y cada uno de los vídeos publicados por Grant Sanderson, es capaz de explicar de manera visual y sencilla conceptos matemáticos complejos ¡Ojalá nos hubiesen contado todo así en la universidad!

Collaborative Filtering: En línea con el motor de recomendación de Amazon, en este artículo se detalla de forma muy didáctica, como construir motores de recomendación con este algoritmo.

2. Historias 📔

A Book from Alan Turing… and a Mysterious Piece of Paper

Hace unos días me topé con una fantástica historia escrita por Stephen Wolfram (CEO de Wolfram Research y creador de Mathematica) en el que cuenta maravillosamente cómo llegó a sus manos un libro propiedad de Alan Turing en el que encontró una misteriosa nota manuscrita:

Aparte de profundizar en el contenido de la nota (cálculo lambda y combinadores, conceptos de teoría de la computación), el texto es especialmente interesante por la investigación detectivesca que Wolfram realiza hasta llegar al origen de la nota.

Un par de curiosidades, de entre las muchas que se pueden encontrar en el texto:

  • El cálculo lambda es considerado como el lenguaje universal de programación más pequeño y que ha servido de base para la creación de lenguajes funcionales como LispML y Haskell.

  • He descubierto el porqué del nombre Y Combinator de la famosa aceleradora de startups:

In modern times, the Y combinator has been made famous by the Y Combinator startup accelerator, named that way by Paul Graham (who had been a longtime enthusiast of functional programming and the LISP programming language—and had written an early web store using it) because (as he once told me) “nobody understands the Y combinator”. (Needless to say, Y Combinator is all about avoiding having companies go to fixed points…)


¡Esto es todo! Gracias por leer hasta aquí la primera edición de “The Independent Sentinel

Si te ha gustado, ¡compártela!

¡Hasta pronto!

The Independent Sentinel: Inteligencia Artificial, Ciencia de Datos y mucho más

por Javier Fuentes, CEO @ Akoios

¡Hola!

Bienvenido a The Independent Sentinel, la newsletter de Akoios en la que hablaremos de Inteligencia Artificial, Machine Learning y otros temas relacionados con tecnología y computación

¡Suscríbete ahora para comenzar a recibir la newsletter en tu bandeja de entrada!

¡Suscríbete ahora!

Si conoces a alguien a quién creas que le puede interesar esta newsletter, ¡compártela!

¡Hasta pronto!

Loading more posts…