Inteligencia Artificial y Matemáticas. Parte II: Ejemplo Ilustrativo

Orlando Rodríguez

El presente Blog corresponde a la parte II del tema “Inteligencia Artificial y Matemáticas”,  Para su comprensión recomiendo revisar previamente la primera parte.

En el blog anterior  ilustré el modelo Neuronal, con  una capa de entrada, una serie de capas ocultas (Hidden Layers), y una capa de salida, Output Layer.

Cómo alimentar el modelo con  una entidad clasificable , y cómo interpretar la información de salida?

Asumamos que contamos con un modelo entrenado para reconocer  imágenes de gatos y que deseamos utilizar dicho modelo  para  clasificar la imagen de la figura 1 , como gato o no gato.

cat6

Figura 1. Imagen “gato1.jpg”

La figura 1 tiene varias características:

  1. Es una imagen digital pequeña, 30X30 pixeles
  2. Es una imagen con formato .jpg, lo cual quiere decir que cada pixel en la imagen tiene tres componentes o capas de color,  Rojo, Verde y Azul (RGB).
  3. Cada color está representado por un valor entre 0 y 255,  0 para ausencia de pigmento y 255 para  100% de pigmento.

De acuerdo a lo anterior, la información  bit a bit de la imagen puede visualizarse así:

 

gato2

 Figura 2. Información digital del archivo “gato1.jpg”. Para efectos ilustrativos, la imagen se ha reducido a 5X5 pixeles.

 

Como se puede apreciar, el primer pixel (superior a la izquierda) tiene tres capas (255, 238, 44), correspondiente a los valores de composición Rojo, Verde y Azul respectivamente.

Luego, si la imagen tiene  30X30 pixeles,  el tamaño de archivo será de (30 X 30 X 3 = 2,700 bytes)   un byte por pixel por capa.

Para utilizar esta  imagen en el modelo, es necesario “Vectorizar” previamente la información, esto es, convertir el arreglo original (30X30X3) a un vector columna  (2700X1). Ver Figura 3.

gato3

Figura 3. Información digital vectorizada del archivo “gato1.jpg”.

Los 2,700 bytes obtenidos corresponden a la capa de entrada del modelo (Input ayer), ver figura 4.

gato_red

Figura 4. Información  de la capa de entrada (Input Layer). Contrastar  los valores indicados con la información contenida en las figuras 1 y 2.

 

El número de parámetros  entre capas de nodos está definido como el producto de nodos de las dos capas a unir. Así,  para unir todos los nodos de la capa de entrada con la primera capa oculta se requieren 6 X 2,700 = 16,200 parámetros, y así sucesivamente.

En virtud de ser estrictos, ni la figura 4 ni la teoría explicada  incluyen algunos parámetros adicionales por capa, los cuales  especifican los “bias”  o umbrales del modelo. Se omiten solo con propósitos de explicación general del funcionamiento de clasificación.

Con la capa de entrada alimentada, y  con los parámetros previamente definidos, es posible entonces calcular primero los valores de Hidden Layer 1,  luego  Hidden Layer 2 y finalmente   Output Layer,  una operación conocida como “Forward Propagation”.

Ahora bien, la capa de salida cuenta con un solo nodo (fig 4).  Este nodo representa la salida general del modelo, un único valor que debe representar la clasificación obtenida.

Una vez calculado su valor es necesario transformar el mismo en un valor entre cero y uno, mediante un tratamiento matemático llamado  “Función de activación”.

El convertir la salida a un valor entre cero y uno implica que dicho valor se transforme en una probabilidad,  si mayor a 0,5 indicando que la imagen ha sido clasificada como “Gato”, si menor o igual a 0.5 como “No Gato”.

La frontera  de clasificación  es subjetiva, y en algunos casos puede correrse hacia valores superiores a 0.5, en otros a valores inferiores.

Imaginemos que los que se está clasificando no son imágenes de gatos sino imágenes de tumores de piel, en clasificaciones maligno-benigno.

En este caso, un falso positivo, clasificar una imagen como tumor maligno siendo en realidad tumor benigno tiene implicaciones demasiado  fuertes para el paciente, de manera que se pueda decidir especificar la frontera hacia 0,6 o similar.

Cuántas capas ocultas debe tener  el modelo? Cuántos nodos en cada capa?  Esto es algo que debe definir el Data Scientist. En general, cuatro a seis capas ocultas, 200 a 300 nodos por capa es común para obtener resultados con probabilidad de error inferiores al 5% en la clasificación.

Varios conceptos deben estar claros en este momento de la lectura:

  1. El modelo se comporta como “Una función de funciones”, con una entrada (la imagen)  y una salida, la clasificación.
  2. Cada modelo tiene un set de parámetros característico, el cual conforma la “huella digital del modelo”. Así, un modelo clasificador de gatos tendrá un conjunto de parámetros  diferente a un modelo clasificador de tumores.
  3. La información está distribuída a travez de todo el modelo, y no localizada en un sitio específico.
  4. Aprendizaje significa obtener la huella digital que caracteriza el modelo. Clasificación significa utilizar dicha huella para identificar una imagen.

 

En qué consiste  el entrenamiento ?

En general,  el modelo se entrena con imágenes cuya clasificación se conoce, y se parte de un conjunto de parámetros seleccionados al azar. Basado en el resultado de clasificación del conjunto de “Imágenes de entrenamiento”,  training Set, es posible calcular el error de clasificación. Con este error se alimenta  un algoritmo que recalcula los parámetros a unos nuevos valores, Back Propagation,   de manera que  en una segunda corrida se obtenga una mejor aproximación (menor error)  de clasificación.

Esta operación se repite 10,000 o mas veces hasta obtener un margen de error adecuado.

Una vez entrenado el modelo, se puede probar  la calidad de su huella con imágenes de prueba, Test Set.  de esta manera, su todo sale bien, se cuenta con un modelo convenientemente entrenado.

Y qué tiene que ver todo esto de aprendizaje de máquina con la naturaleza, objeto central de mis blogs?

Entender el funcionamiento de las redes neuronales nos permite abordar desde una nueva óptica temas inherentes a la vida misma:

  1.  Que tan artificial es la inteligencia artificial?
  2. Será posible que el cerebro opere de manera similar?
  3. Podrá un recuerdo estar distribuido en un conjunto de sinapsis neuronales?
  4. Pueden los organismos y los ecosistemas ser modelados mediante redes neuronales?
  5. Pueden las redes Neuronales generar una medida de la complejidad de los ecosistemas?
  6. Donde puede residir la memoria en nuestro cerebro, y mas importante, qué puede ser la memoria?
  7. Cómo se puede entender la conciencia? Qué pueden ser los recuerdos?

Con el próximo blog, último del tema,  espero dejar planteadas estas inquietudes, no las respuestas,  en la red neuronal de sus cerebros.

 

Inteligencia Artificial y Matemáticas. Parte I: Anatomía de una Red Neuronal

Orlando Rodríguez

“Al afirmar verbalmente que las Matemáticas son difíciles, estamos diciéndolo con  un lenguaje  cuya sintaxis es tan compleja, no mas, no menos, que aquella que gobierna las matemáticas” 

Las redes neuronales (DNN) son uno de los modelos de aprendizaje de máquina mas utilizados hoy en día. DNN  se puede visualizar como  un conjunto de nodos  y  líneas  conformando una red, ver figura 1. Su similitud con la organización de las neuronas en el cerebro es evidente, pero este tema lo abordaré mas adelante.

Neural1

Figura 1. Esquema  simplificado de Red Neuronal Profunda (DNN)

En una red neuronal, dos nodos y una línea corresponden a una unidad básica del modelo, y son una representación gráfica de una función matemática del tipo:

f(x) = k.x

Para la figura 2, la variable de entrada (x) corresponde al nodo verde, la variable de salida  f(x) al nodo azul,  y la línea  que las une  corresponde a la constante  k:

Nodo

Figura 2. Unidad fundamental de una DNN

Toda función matemática  puede visualizarse como una caja que recibe uno o varios elementos de entrada y entrega un único elemento de salida:

TANQUE

Figura 3. Representación gráfica de una función matemática

La función  “”  es una relación matemática entre una o mas variables de entrada y una variable de salida.

Así,  la función

f(x) = 3.x

toma valores de entrada  x, los multiplica por 3 , y entrega  valores de salida f(x):

funcion3

Figura 4. Elementos de entrada (x) y salida  f(x)  definidos por la función f

El valor “3” sobre cada flecha corresponde al valor  de la constante  (parámetro de la función)  que caracteriza la misma en cada caso.

En  la red neuronal de la figura 1, cada elemento de salida corresponde a la suma de varias funciones, cada una con su propio parámetro que la define:

Sin título-2

Figura 5. Función con tres variables de entrada y una variable de salida

A modo ilustrativo, trabajemos sobre  algunos nodos y líneas de la Red Neuronal mencionada arriba, ver Figura 6.

 

neuro2

Figura 6. Detalle parcial de una red Neuronal

Para estos elementos de la red,  podemos definir  una función

f(Xi) = Sum(Ki.Xi)

Esto es, la salida f(Xi)  (nodo naranja) corresponde a la sumatoria  de  las variables de entrada multiplicadas cada una por su constante correspondiente (parámetro de la función) .

Lo que el ejemplo anterior nos evidencia  es que si pre-definimos valores para los 32 parámetros (valores del total de líneas de enlace de la Red Neuronal) y contamos con los valores de las tres variables de entrada (Input Layer) , podemos ir encadenando  de izquierda a derecha los resultados de las funciones, convirtiéndose  la salida de una función en la entrada de la siguiente,    hasta  obtener los valores de la última salida , o Output Layer.

Esta operación se conoce como “Forward Propagation” , que para modelos entrenados (parámetros con valores asignados), permite  que se puedan evaluar o clasificar entidades de  entrada, siendo esta evaluación la salida calculada del modelo.

El siguiente blog lo dedicaré a un ejemplo ilustrativo de la teoría expuesta.

 

Que tan artificial es la Inteligencia Artificial?

Orlando Rodríguez

JUSTIFICACION

Soy Biólogo, y desde mi precaria esquina de conocimiento, pero gracias a la estrecha relación con profesionales  de múltiples disciplinas,  vinculados  en su mayoría al Instituto de Neurociencias de La Universidad del Bosque, me he lanzado a la fascinante aventura de entender los fundamentos de la Inteligencia Artificial.

Que pretendo?

Responder, si no es soberbio de mi parte, la pregunta: Qué tan artificial es la Inteligencia Artificial ?

Brainnetwork-e1436746440606-1024x1024

Imagen 1. Ilustración del cerebro humano, una gran red viva de procesamiento de información. (Imagen credit: ferguskane.com)

Poco a poco he venido intuyendo que  los elementos que gobiernan el Aprendizaje de Máquina quizás no sean tan diferentes, al menos en sus conceptos fundamentales, a aquellos que gobiernan el aprendizaje humano.

1*1mpE6fsq5LNxH31xeTWi5w

Imagen 2. Ilustración de una “Red Neuronal Artificial Profunda”, pieza básica del aprendizaje de máquina.(Imagen credit: Datanami.com)

Dedicaré entonces algunos de mis futuros blogs para compartir lo poco que he venido descubriendo sobre Inteligencia Artificial. Espero no aburrir a mis lectores.  Prometo intercalar esta serie de blogs con otros blogs menos abstractos. Espero seguir compartiendo mis fotografías, registros todos del maravilloso milagro del universo y de su más bella expresión:  La vida.

Orlando

 

 

 

SINTESIS DE PROTEINAS Y TEORÍA COMBINATORIA

Si los ladrillos de la vida son apenas veinte moléculas diferentes de aminoácidos, alineadas como collares de perlas para conformar algo cercano a 10 millones de moléculas diferentes de proteínas presentes en los seres vivos, dos millones solo en nuestra especie, mas sorprendente es que el orden o secuencia de de dichos aminoácidos la definan en el DNA apenas cuatro letras , cuatro bases nitrogenadas llamadas Adenina, Timina, Citocina y Guanina, A, T, C y G .

Cómo pueden apenas cuatro letras especificar, o codificar 20 aminoácidos distintos?

Teoría combinatoria simple !!!!

Si cada base operara independientemente en el proceso de codificación, entonces solo se podrían especificar cuatro aminoácidos distintos, uno por cada base nitrogenada.

Se requieren entonces combinaciones, o “palabras” de varias bases nitrogenadas especificando para los distintos aminoácidos presentes en la naturaleza.

Cuántos aminoácidos pueden codificarse con palabras de dos letras?

Captura de pantalla 2018-07-17 a la(s) 5.07.37 p. m.

Captura de pantalla 2018-07-17 a la(s) 5.00.28 p. m.

Fig 1. 16 posibles combinaciones por duplas de bases nitrogenadas.

De manera que duplas, o pares de bases nitrogenadas no son suficiente para codificar 20 aminoácidos.

Que hay si se la naturaleza trabajara con tripletas?

Captura de pantalla 2018-07-17 a la(s) 5.07.53 p. m.

64 diferentes combinaciones, mas que  suficiente para especificar 20 aminoácidos.

Así,  la naturaleza seleccionó tripletas de bases nitrogenadas como su esquema de codificación funcional para la construcción proteínica. A estas unidades de información los Bioquímicos los denominan “Codones”.

Menos de tres bases no era suficiente, mas de tres bases era innecesario.

Puesto que se cuenta con 64 combinaciones posibles, existe entonces redundancia en la codificación, y sobra para definir una tripleta, “UGA”, como “Punto final” , o “Stop”  de la codificación.

A continuación la tabla de codificación por aminoácido.

what_img03

Fig 1. 64 posibles combinaciones por tripletas de bases nitrogenadas.

Una formula combinatoria simple y elegante  utilizada por la naturaleza, como punto de partida al complejo mecanismo de la síntesis de proteínas y código genético.

Y qué es esa extraña “U”   de “Uracilo” dentro de las tripletas, y porqué no está presente  la “T” de Timina? Cuáles son los detalles de dicha síntesis?  Qué papel juega el RNA en la síntesis de proteínas? Cuál el papel de los Ribosomas?

Temas para futuros blogs.

NATURALEZA & MATEMÁTICAS

EL PARABOLOIDE HIPERBOLICO

DSCN0997

Figura 1. Hoja de Magnolia  carisifragans, curvada en silla de montar. 

Un  Paraboloide Hiperbólico , conocido también como “Silla de Montar” , es una función 3-D definida por la ecuación

Captura de pantalla 2018-07-15 a la(s) 11.30.33 a. m.

En esta función,  y particularmente en el caso de las hojas de Magnolia, los elementos cuadráticos deben tener signos contrarios, definiendo el elemento positivo  de la ecuación la curvatura convexa de la superficie foliar ,  mientras que  el elemento   negativo define la curvatura concava de la misma .

La “Silla de Montar” tiene la particular de contener un punto que es a la vez un máximo y un mínimo geométrico (Saddle Point), ver figura 2.

Saddle_point.svgFigura 2. Saddle point . indicado en rojo.  Si este punto fuera una gota de agua sobre la superficie de una hoja,  esta sería la única posición  donde  pudiera existiría un delicado equilibrio o balance  dinámico sin flujo hídrico. 

La porción  concava de la curvatura de la  hoja (sentido axial)  la define un diferencial de tension de la nervadura central compensado por una curvatura hacia el haz foliar, mientras que  las curvaturas convexas (sentido transversal) las definen los  diferenciales de tension de las nervaduras secundarias hacia el enves.

Esta forma particular de curvatura foliar, en estructuras semi-rígidas como el caso de las hojas de Magnolia spp, es ideal para un adecuado drenaje del agua  lluvia, evitandose así el establecimiento de  líquenes, musgos y demas epífitas que pudieran afectar la evapo-transpiración y la actividad fotosintética.

Para una hoja dispuesta horizontalmente (posicion que maximiza la exposición a la luz) , el drenaje se efectúa con dos componentes vectoriales: Flujo de agua en sentido axial y hacia el centro de la hoja, y en sentido transversal y hacia afuera de la misma.

Para maximizar el flujo hídrico , cada nervadura secundaria  plega de manera marcada  la superficie foliar  formando canales  o “valles de drenaje”  en el curso de las nervaduras,  y crestas entre nervadura y nervadura (ver figura 1).

Una particularidad de construcción interesante de esta función es que es una función “Doblemente reglada”, lo cual quiere decir que es posible construirla a partir de lineas rectas, ver fig 3.

640px-Hyperbolic-paraboloid.svg

Figura 3. Construcción de un Paraboloide Hiperbolico a partir de líneas rectas.

Como un comentario al margen del tema, funciones en silla de montar son muy frecuentes  en fuciones de costo (Cost Functions) n-dimensionales   de los diferentes modelos de Inteligencia artificial (Machine Learning) utilizados hoy en día.