Introducción al Perceptrón

Andres Felipe Ocampo
5 min readFeb 10, 2024

--

Redes neuronales artificiales

Continuamos pues con nuestro siguiente grupo de temas sobre redes neuronales artificiales hablando de cómo esa neurona de neurona de M-P, evoluciona en un nuevo algoritmo, en una nueva neurona artificial conocida como el Perceptrón.

El Perceptrón es uno de los algoritmos más conocidos dentro de la disciplina del deep learning o de la inteligencia artificial en general, y sienta las bases de muchas de las arquitecturas de redes neuronales artificiales de las que disponemos en la actualidad. El Perceptrón, es propuesto por Frank Rosenblatt en 1957. Fijaros que desde que se propone la neurona de M-P en 1943, han pasado ya varios años, más de diez años, hasta que Frank Rosenblatt propone un nuevo modelo, una nueva neurona artificial que supera en muchos aspectos a aquel diseño inicial propuesto por neurona de M-P.

Fijaros en 1969 esta primera propuesta de FrankRosenblatt es analizada y refinada por otros dos investigadores conocidos como Marvin Minsky y Seymour Papert. Tenéis concretamente el artículo científico en el que proponen esta nueva versión de Perception aquí. Esta nueva versión, que es concretamente en la que nosotros nos vamos a centrar porque es muy parecida a las neuronas que se utilizan a día de hoy en la actualidad como base de la mayoría de las arquitecturas de redes neuronales artificiales, pues mejora el planteamiento de esa neurona de M-P, aquella que veíamos en los artículos anteriores en varios aspectos.

Uno de ellos, y probablemente el principal de todos, es que comienza añadiendo el concepto de “peso”. Fijaros que ya hemos comentado anteriormente que en la neurona de M-P recibíamos una serie de inputs. En este caso eran inputs binarios {0,1}, y en nuestro caso particular poníamos un ejemplo real. Un ejemplo cotidiano en el que queríamos que esta neurona predije s o nos dijese si podíamos ir al cine hoy o no, lo que hacíamos era introducir una serie de inputs que se correspondían con la respuesta a preguntas como por ejemplo, si no tenía tarea que realizar hoy, si era fin de semana, si habían estrenado película, etc.

Hablábamos de que, claro, había ciertas preguntas iniciales que podían tener más importancia que otras, pues por ejemplo, si no tengo tarea que realizar o sí, si tengo tarea que realizar y es un día de diario y al día siguiente voy a tener que entregar esa tarea, pues probablemente sea muy importante el día de la semana, que es con lo cual esa pregunta de si es fin de semana, pues tiene que tener bastante más relevancia de otra pregunta, como por ejemplo si estrenan película, porque da igual que se estrene una películas, si tengo tarea y no es fin de semana, pues no puedo ir al cine porque al día siguiente tengo que entregar esa tarea.

Con lo cual decíamos que esta neurona tenía ciertas limitaciones porque no nos permitía asignarle esa importancia a las preguntas que nosotros nos hacíamos inicialmente, a esos valores de entrada que nosotros le proporcionamos a la neurona.

Bien, pues el Perceptrón es un nuevo algoritmo que sí que incorpora ya este concepto de “peso” y no solamente incorpora este concepto de “peso” o de “importancia”, por decirlo o definirlo de otra manera, tened en cuenta que cuando hablamos de peso estamos hablando de ese concepto de importancia. Respecto a los inputs, respecto a esos valores de entrada, sino que además de incorporar este concepto de importancia o de peso, plantea un mecanismo para encontrar esa importancia, ese valor de manera automática y este concepto para ajustar los pesos, y así encontrar esos pesos ideales. Esa importancia ideal es lo que a día de hoy se conoce como “aprender” de acuerdo es ese proceso de entrenamiento. Cuando nosotros entrenamos nuestra red neuronal, entrenamos una neurona artificial, lo que realmente estamos haciendo es encontrar esos pesos ideales para que la neurona realice buenas predicciones. Más adelante veremos cómo estos pesos se denominan parámetros del modelo.

Otra de las cosas que tienes que no va a recibir únicamente valores binarios. Recordad que esta era otra de las grandes limitaciones que tenían la neurona de M-P sólo recibía valores binarios y nos permitía solamente predecir o tomar una decisión binaria. En este caso, el Perceptrón no solamente permite recibir valores binarios, sino que nos permite recibir valores dentro de un rango mucho más amplio y además nos permite también realizar predicciones que no sean una decisión binaria, es decir, que el output de la neurona no sea únicamente un valor binario.

Fijaros, se basa en un tipo de neurona artificial conocida como Threshold logic unit (TLU). Y es que, como vamos a ver un poquito más adelante, el Perceptrón como tal no es un algoritmo que se base en una única neurona artificial como se basaba la neurona de M-P, sino que el Perceptrón va a consistir en un algoritmo que va a estar constituido por varias neuronas artificiales y cada una de estas neuronas artificiales se denomina TLU.

Qué quiere decir?

Pues quiere decir que en nuestra arquitectura, nuestro perceptrón puede estar formado por varias neuronas.

Y si nosotros tenemos unos inputs, por ejemplo un x1 x2 x3. Como veíamos anteriormente, estos inputs entran a las diferentes neuronas TLU y las diferentes neuronas nos proporcionarán diferentes resultados que nosotros tendremos que interpretar, es decir, el Perceptrón, tal y como vemos, es una arquitectura de red neuronal artificial. Podríamos decir que no tiene porque estar formado por una única neurona y las neuronas que lo forman se denominan Threshold logic unit (TLU).

Bien, por último, simplemente mencionar algo que vamos a ver ahora más en detalle cuando entremos en las formalidades del Perceptrón y es que la TLU, esta neurona artificial va a computar una suma parametrizada de las entradas en lugar de únicamente una suma de las entradas, como veíamos en la neurona de M-P pues ya hemos visto un poquito de manera genérica en qué consiste el Perceptrón, cuáles son las diferencias fundamentales entre esta nueva arquitectura de red neuronal artificial y la neurona de M-P y lo que vamos a ver en el siguiente artículo son las diferencias más en detalle de lo que sería la neurona de neurona de M-P y la Threshold logic unit (TLU) de un Perceptrón, a por el finde que esta divertida lectura.

--

--