EMERGENCIAS

Esto es parte del TFM de Pablo Pinés.

 

I INTRODUCCIÓN


La palabra emergencia, en el sentido que se entiende en el presente trabajo, se refiere a una definición no del todo conforme con la dada por la RAE, relacionada con el verbo emerger, que significa “Brotar, salir a la superficie del agua u otro líquido”.

En su lugar se relaciona más bien con una definición más semejante a la dada por el Diccionario Oxford en su edición inglesa, para el cuál emerger es “volverse aparente, salir a la luz, (de algo inesperado) surgir, presentarse a sí mismo, emanar” [2].

En este concepto de emergencia, un cambio de escala muy a menudo produce un cambio en el comportamiento cualitativo del sistema [8]. Por ejemplo, cuando se analiza una molécula de agua aislada, nada hace pensar en sus características fluidas, igual que una neurona sola no tiene consciencia. Sin embargo, millones de moléculas de agua a temperatura ambiente son claramente líquidas, y millones de neuronas interrelacionadas producen consciencia. En estos ejemplos, liquidez y consciencia son fenómenos emergentes.

En la naturaleza la evolución es un proceso continuo, gradual y persistente. De vez en cuando este proceso afronta barreras de rendimiento y se estanca, hasta que una catástrofe masiva las rompe o algunos agentes solitarios logran cruzarlas a través de un proceso de creación de túneles. Las revoluciones en la evolución son posibles porque hay obstáculos naturales para ella que causan estancamiento, interbloqueo y confusión. Las barreras de rendimiento marcan los límites de la evolución normal.

Si esto es correcto, la emergencia de una  perfección y complejidad extremas puede reducirse a una serie de pequeños eventos de emergencia menores, con lo que la emergencia de algo complejo o muy grande puede descomponerse en la emergencia de elementos mucho menores y no espectaculares. Si la evolución se ve interrumpida por una serie de revoluciones cortas y rápidas asociadas con la emergencia de nuevas características y propiedades, entonces la emergencia se convierte a sí misma en un concepto auto asimilado.

Por ejemplo, la emergencia y aparición del hombre moderno no sería posible sin la aparición de otros muchos mamíferos, pequeños y poco llamativos con pelo, vertebrados con columnas vertebrales y cordados con cordones nerviosos. Un gran paso se compone de muchos pasos menores, que son a su vez la acumulación de pasos aún más pequeños.

Como se indicó antes, la aparición de la consciencia, es un fenómeno emergente en humanos. La consciencia es una propiedad del cerebro en un nivel global. El cerebro es un sistema complejo compuesto de conjuntos de neuronas de diferentes tipos con interacciones entre ellas, de bajo nivel. A día de hoy no podemos explicar la consciencia a partir de estas interacciones entre neuronas [14].

Un fenómeno emergente requiere al menos dos niveles, uno micro y otro macro, y debe ser observable al menos en el nivel macro. Como propiedad principal se puede establecer la irreductibilidad de sus propiedades en la teoría de alto nivel a propiedades de la teoría de bajo nivel [8].

Suele haber interdependencias entre niveles, el nivel macro constriñe el nivel micro y el nivel micro causa el macro. Además, el fenómeno que surge debe ser novedoso y no existir antes, así como ser obvio y observable, y tener coherencia interna, de forma que posea su propia identidad a la vez que está ligado a las partes que lo producen.

Además, se debe poder establecer una cadena lineal de actividades que permitan explicar y predecir el fenómeno colectivo, a la vez que las actividades del nivel micro deben ser no lineales. El cumplimiento de al menos la mayoría de estas características permite asegurar que es un fenómeno emergente.

Hay cuatro escuelas principales de investigación que estudian la emergencia en sistemas complejos de forma distinta [14].

La primera es la Teoría de los Sistemas Adaptativos Complejos, para los que la emergencia son los patrones que surgen en el nivel macro a partir de las interacciones de los agentes. La segunda es la Teoría de los Sistemas Dinámicos No Lineales y Teoría del Caos, usan como concepto los atractores, un comportamiento específico al que el sistema evoluciona.

La tercera es la Escuela Sinergética, que fue la primera en estudiar la emergencia en sistemas físicos. Consideran un parámetro de orden que influencia el fenómeno coherente a nivel macro que el sistema exhibe. La cuarta es la Termodinámica Lejos del Equilibrio. Se refiere a los fenómenos emergentes como estructuras disipativas surgidos de condiciones lejos del equilibrio.

Un sistema o mecanismo que presente un fenómeno emergente debe tener una dinámica durante su período de vida. Dado que el fenómeno es observable a través del tiempo, necesita una forma de equilibrio automantenido. Sin embargo este equilibrio no es homeostático sino de equilibrio dinámico.

La emergencia se produce en el reducido margen de posibilidades que se produce entre condiciones muy ordenadas y muy desordenadas. Este límite o margen es el borde del caos, que siempre se encuentra lejos del equilibrio. Cerca de estos equilibrios, un sistema puede autoorganizarse permitiendo un fenómeno emergente [8].

La emergencia en un sistema artificial es un concepto semejante a la computación emergente, definida como una colección de agentes interactivos, el proceso; un epifenómeno producido por este proceso en el nivel macro, y una interpretación natural de este epifenómeno como una computación o resultados de computación.

Una definición operacional de emergencia con un fuerte matiz de ciencias de la computación se puede basar en dos puntos. El primero es el sujeto, el objetivo del sistema computacional es realizar una función adecuada, juzgada por un usuario relevante. Es esta función, que puede evolucionar durante el tiempo, la que tiene que emerger.

El segundo es la condición, esta función es emergente si la programación del sistema no depende de ninguna forma del conocimiento de esta función. La programación debe contar con mecanismos que permita adaptar el sistema durante su emparejamiento con el entorno de forma que tienda en cualquier momento hacia la función adecuada.

La forma más compleja de emergencia se produce entre el genotipo y el fenotipo en la evolución biológica y en la vida artificial, el fenotipo consiste en las estructuras y dinámicas que emergen a partir del desarrollo e interacción en el entorno a lo largo del tiempo.


II. EMERGENCIA EN SISTEMAS MULTIAGENTE

 

La herramienta adecuada para simular sistemas complejos son los sistemas multiagente (SMA) y los autómatas celulares (CA). Estos últimos son un caso especial de SMA con agentes muy primitivos similares a una máquina de estados finitos dispuesta en una cuadrícula rígida que interactúan entre sí con reglas muy sencillas [2].

Se emplean a día de hoy para explicar sistemas adaptativos complejos, tal como en economía, biología, historia y análisis de conflictos, política y ciencias políticas, o sociología.

En todos estos campos se aplicó en el pasado la Teoría de Juegos con más o menos éxito. Las simulaciones basadas en agentes están remplazando a esta teoría como herramienta para entender cómo grupos de gente e individuos inteligentes interactúan entre sí. Un juego en el sentido de la Teoría de Juegos es una simulación donde los agentes, llamados jugadores, intentan maximizar su beneficio eligiendo entre un número limitado de estrategias, por ejemplo el dilema del prisionero [3].

Los SMA permiten estudiar la emergencia de propiedades sistémicas que surgen de la interacción de grandes cantidades de agentes, en vez de un sólo agente. La inteligencia puede ser vista como una de esas propiedades emergentes. Esto significa que la habilidad del sistema para resolver un problema, para optimizar un resultado o para adaptarse a una situación cambiante de forma previsora no puede ser trazada a partir de capacidades individuales, sino a partir del esfuerzo colectivo de los agentes. Un marco para modelar estos SMA lo proporciona la aproximación por redes complejas, en la que los agentes son representados por nodos y sus interacciones por enlaces.

Así, la estructura subyacente en red del SMA juega un papel crucial en explicar las propiedades emergentes. Los agentes en red, por otro lado, pueden ser capaces de cambiar activamente esta estructura formando nuevos enlaces o cortando los existentes [4]. Por lo tanto, no hay sólo una evolución profunda, sino una coevolución de la dinámica de los agentes y de su red de interacciones.

Las arquitecturas reactivas, que no emplean un razonamiento simbólico complejo, pueden generar un comportamiento inteligente sin modelo simbólico, simplemente el comportamiento inteligente es una consecuencia de ciertos sistemas complejos.

Como se indicó en la definición operacional dada al final del punto anterior, cuando se diseña un agente para un sistema multiagente, el código del agente no puede contener ningún conocimiento de la función colectiva que se espera compute el SMA. Por lo tanto, se puede afirmar que ningún agente controla el sistema global [8].

Los estudios y desarrollo en sistema autoorganizados que puedan producir emergencia pueden estar inspirados en sistemas naturales (biológicos o sociales) o no naturales [16].

 

A. Clasificación

 

Dependiendo de los mecanismos se pueden clasificar en cinco clases [8].

 

1) Interacciones directas entre agentes

 

Usan unos pocos principios básicos como broadcast y localización, junto con interacciones y computación local realizadas por los agentes de cara a obtener un estado coherente global.

Estos algoritmos se diferencian de los algoritmos distribuidos tradicionales en su enfoque en asegurar que finalmente converjan y mantengan un estado estable deseado a pesar de contingencias en el nivel micro, y de cualquier perturbación en el entorno.

Se centran en cambiar los aspectos estructurales de la organización de los agentes, como su localización topológica y las líneas de comunicación de los agentes.

Ejemplos típicos de aplicación son el autoensamblado [11] y la autolocalización distribuida, que requiere generar patrones regulares espaciales entre objetos móviles.

 

2) Interacciones indirectas entre agentes y estigmergia

 

La Estigmergia es un concepto que busca obtener comportamientos en sistemas complejos como resultado de interacciones indirectas entre agentes. Estas interacciones se deben a cambios en el entorno, con lo que se intenta obtener el comportamiento global deseado [16].

Se ha demostrado su efectividad para realizar tareas globales de coordinación difíciles. Estos mecanismos se pueden demostrar experimentalmente, por ejemplo mediante simulación o prototipado. De hecho se tiende a integrar los resultados de los experimentos de simulación en las metodologías empleadas para desarrollar los sistemas.

La fase de diseño, en estos casos, requiere seleccionar el modelo de autoorganización apropiado y verificar su corrección con experimentos. Este modelo puede ser relevante sin ser el más adecuado para el caso particular de aplicación, por lo que se debe realizar un proceso iterativo de refinado para calibrarlo en base a los resultados experimentales.

No se puede tener el control del sistema, y ni siquiera se puede probar que se obtendrá el comportamiento deseado. Esto se debe a su naturaleza no lineal y a  la complejidad de los fenómenos involucrados. Además, no se puede saber con antelación el estado final del sistema, y de hecho se pueden obtener múltiples soluciones. Sólo se puede tener cierta seguridad en base a estadísticas experimentales sobre la convergencia del sistema con el comportamiento deseado.

 

3) Refuerzo de los comportamientos de los agentes

 

Se basan en la capacidad de los agentes para modificar dinámicamente su comportamiento en base a algún refuerzo. Se basa en incrementar o decrementar comportamientos de los agentes en base a recompensas y castigos, respectivamente [12].

Así un agente individual puede adaptar sus capacidades y se puede observar especialización. La autoorganización está basada en capacidades de comportamiento adaptativo de agentes individuales que dependen de ciertas arquitecturas de agentes. Los agentes seleccionan dinámicamente un nuevo comportamiento en base al cálculo de un valor de probabilidad que depende del estado del agente y el estado percibido del entorno, así como la calidad de anteriores decisiones adaptativas.

 

4) Comportamiento cooperativo de agentes individuales

 

Usa la composición y descomposición de agentes. La composición une dos agentes en uno, y es útil en caso de que la sobrecarga de comunicación entre dos agentes sea muy alta. La descomposición de un agente en dos puede realizarse como respuesta a desbordantes demandas ambientales. 

El sistema busca ser cooperativo con el entorno al crear un nuevo agente o unirlos en base a mejorar el tiempo de respuesta al entorno. La organización inicial comienza con un agente con todo el dominio y la información organizacional. Las simulaciones muestran su efectividad en adaptarse a las demandas cambiantes del entorno.

 

 

5) Elección de una arquitectura genérica

 

Es una clase particular de mecanismos de autoorganización, basadas en arquitecturas genéricas de referencia o metamodelos organizativos de agentes que fueron instanciadas y a posteriori modificadas dinámicamente según se necesitaba en base a los requisitos de una aplicación particular.

Involucran tipos de agentes característicos de los que se derivan los agentes básicos de una organización holónica. El modelo jerárquico holónico implica patrones estructurales que forman jerarquías anidadas de estructuras autoreplicantes llamadas holarquías. Los agentes organizados en base a la metáfora holónica participan en holones formando estructuras holónicas.

La autoorganización se refiere a alterar la jerarquía holónica en base a perturbaciones del entorno usando técnicas conocidas de toma de decisiones.


III. LA INTELIGENCIA EMERGENTE EN PSICOLOGÍA Y SOCIOLOGÍA

 

Observando una colonia de hormigas, o una ciudad humana, se puede ver que hay un trabajo colectivo, y mayormente efectivo. En el primer caso los mecanismos son mayormente desconocidos, mientras que en el segundo se basa principalmente en un coeficiente de relación entre los seres que lo componen [3].

Sin embargo, en la colonia de hormigas se puede apreciar una especie de inteligencia colectiva que los guía [16]. ¿Se podría aplicar este concepto a una sociedad humana, a fin de resolver el dilema social de la cooperación entre seres humanos, que a menudo profetiza el inevitable colapso de muchas empresas humanas?

Un detalle clave para diferenciar entre hormigas y seres humanos es la distinción entre sociedades anónimas e individualizadas. Así, en las segundas, correspondientes a nuestras sociedades, los individuos tienen propiedades distintas que los diferencian entre sí, y les permiten ocupar diferentes roles sociales y posiciones dentro de la sociedad. Nuestras sociedades se podrían definir en términos de poder y confianza.

La estructura de nuestras sociedades está conformada por grupos de comunidades locales o por redes sociales que enlazan individuos, grupos y organizaciones. Las propiedades individuales son la base de nuestra estructura social. Incluso características sin sentido tiene significado social si son percibidas por los demás.

En los últimos años se ha avanzado en obtener una cierta comprensión general, últimamente en la teoría de los sistemas colectivos consistentes en una gran colección de agentes. Es en estos sistemas que se observan propiedades emergentes que se pueden entender como inteligencia colectiva, considerando como tal aquella que encuentra soluciones efectivas a problemas bajo condiciones de incerteza, siendo este un comportamiento que no se encuentra presente en los elementos individuales.

Autores como Surowiecki [2] ofrecen una idea simple con implicaciones profundas: una colectividad de gente es más inteligente que una élite de escogidos a fin de resolver problemas, fomentar la innovación y tomar decisiones sabias. Su noción, que contradice la psicología de masas tradicional, requiere de los siguientes principios, sin los cuáles no surge: diversidad de opinión, independencia, descentralización, y mecanismos de combinación. Estos principios también deben ser tenidos en cuenta para la investigación con agentes.

Sin embargo, el comportamiento egoísta puede impedir alcanzar la máxima eficiencia. El nivel de eficiencia perdido se conoce como el precio de la anarquía. La mayoría de los sistemas humanos consideran a los individuos optimizadores (que buscan su máximo beneficio) egoístas, y para ello hacen falta mecanismos que eviten que los comportamientos egoístas degraden el rendimiento del sistema. Especialmente interesante es cómo estructurar las interacciones sociales a fin de que los agentes tengan libertad de elegir sus acciones, evitando las que nadie escogería.

Las investigaciones en ciencias sociales sugieren que en las interacciones sociales los individuos no sólo comparten información sino que, mayormente, se construye una realidad compartida compuesta, además de por información común, por opiniones comunes. Así, los individuos no sólo transmiten información, sino que se influyen para alcanzar una interpretación común de la información.

Esto es importante también para el fenómeno de la influencia social, definido como un cambio en los pensamientos, acciones o sentimientos del sujeto a partir de la presencia, real o imaginaria, de los demás. Esto afecta no sólo a la formación de opiniones sino también a fenómenos como el aprendizaje por observación.

Como se dijo antes, hace falta evitar que los comportamientos egoístas degraden el sistema [7]. Para ello se puede adoptar una postura evolutiva en las que las normas sociales cambien según normas darwinianas de mutación y selección natural. Aunque cabe la posibilidad de que se formen varios grupos de agentes adaptándose entre sí, en un proceso coevolutivo que puede generar una especie de “carrera armamentística”, en el que ninguno de los bloques de agentes competidores se estabilice en un resultado deseable.

Las investigaciones en el área, tal como las realizadas por Akira Namatame [1] incluyen mecanismos que liberan al sistema de los agentes egoístas y sirven para asegurar relaciones sostenibles en formas realizables que permitan que emerja la inteligencia colectiva.

Una colección de agentes interactuando tiende a evolucionar en un resultado a la vez eficiente y equitativo, cuando se les dota de al menos unas reglas simples de comportamiento que cree dinámicas coevolucionarias hacia mejores resultados. Así no sólo se les hace más realistas sino que se enriquecen los tipos de comportamientos agregados que pueden emerger [4].

El marco de la evolución colectiva se distingue de la coevolución en tres aspectos. Uno es la regla de acoplamiento, un proceso determinista que enlaza los resultados pasados con el comportamiento futuro. El segundo, que se distingue del aprendizaje individual, es que los agentes pueden desear optimizar el resultado de las acciones conjuntas. El tercer aspecto es describir cómo una regla de acoplamiento debe ser mejorada con el criterio del rendimiento para evaluar cómo de bien funciona la regla [3].

El espacio social consiste en redes de agentes con intereses propios, evaluaciones continuas de su rendimiento así como de reglas de comportamiento. Estas últimas son tratadas aquí como restricciones a las acciones individuales y especifican la elección de acciones basadas en los resultados específicos. El aprendizaje de una nueva regla de comportamiento, y la intención de cada agente para actuar manteniendo las reglas sociales se trata  aquí como las reglas de comportamiento compartidas que constituyen restricciones comunes a todos los individuos en una sociedad.

Para que los agentes en un contexto social obtengan inteligencia colectiva debe haber un proceso continuo que requiere comportamiento social basado en la racionalidad social. Esto a su vez requiere que el comportamiento racional individual esté limitado por algunas obligaciones. En su lugar, el análisis de lo que es elegido en un momento específico se basa en una implantación de la idea de que las reglas efectivas de comportamiento es más probable que se retengan que las inefectivas. Esto es una reformulación en un marco social de los mecanismos expuestos por Bonabeau.


IV. INTELIGENCIA DE ENJAMBRE (SWARM INTELLIGENCE)

 

Autores como Bonabeau [7] dicen que los mecanismos para identificar la Swarm Intelligence (inteligencia de enjambre) en un sistema serían los siguientes. En primer lugar, debe haber múltiples interacciones entre los individuos. En segundo lugar debe haber una retroalimentación retroactiva positiva, tal como hacen las hormigas por ejemplo dejando un rastro de feromonas a la hora de trazar caminos. En tercer lugar, una retroalimentación retroactiva negativa, opuesta al punto anterior. Y por último, un incremento en la modificación del comportamiento.

Inteligencia de enjambre es cualquier intento de diseñar algoritmos o dispositivos distribuidos para la resolución de problemas (tales como robots) inspirados por el comportamiento colectivo de los insectos sociales y otras sociedades animales, como puede ser el vuelo en V de las aves migratorias. En realidad, para la Swarm Intelligence los ejemplos de la naturaleza con sus características son fuente de inspiración, pero no limitan el desarrollo de la misma, dado que las restricciones y naturaleza de los objetivos de los problemas son muy diferentes de los del entorno de interés de la Inteligencia de Enjambre [16].

La inteligencia colectiva y distribuida puede verse en casi cualquier nivel del mundo biológico (células, órganos, sistemas inmune y nervioso, el propio cuerpo humano), o en organizaciones humanas. A día de hoy la inteligencia en enjambre se refiere en términos genéricos al diseño desde abajo hacia arriba de sistemas distribuidos de control que muestran formas de inteligencia (comportamientos útiles) en el nivel global como resultado de interacciones locales entre un número de unidades minimalistas. Es decir, sistemas complejos adaptables.

El concepto fundamental es que partes sin mucha inteligencia, adecuadamente conectadas en un enjambre, producen resultados inteligentes [10]. La Swarm Intelligence pretende realizar el modelado de grupos de animales para realizar tareas, principalmente grupos de insectos, modelados por millones de años de evolución. Se puede definir a la Swarm Intelligence más como un pensamiento o estado de mente, en vez de una tecnología.

Los comportamientos colectivos mostrados por las colonias de insectos se pueden categorizar de acuerdo a cuatro funciones que emergen a nivel de la colonia y que organizan su comportamiento global. Estas funciones son: coordinación, cooperación, deliberación y colaboración. Así, estas funciones apoyan el procesamiento de información de la colonia de acuerdo a dos ejes principales.

En primer lugar,  la coordinación y colaboración forman estructuras sociales, temporales y espaciales que resultan del trabajo de la colonia. La coordinación regula la densidad espacio-temporal de los individuos mientras que la colaboración regula la asignación de sus actividades.

En segundo lugar, la cooperación y deliberación provee herramientas para que la colonia pueda enfrentar los retos ambientales. La deliberación permite los mecanismos que apoyan las decisiones de la colonia, mientras la cooperación representa los mecanismos que superan las limitaciones individuales.

Las estructuras complejas a nivel de colonia, y muchos aspectos de la llamada inteligencia de enjambre de los insectos sociales, pueden ser comprendidos en términos de redes de interacción y ciclos de retroalimentación entre los individuos. Estos son los elementos básicos que permiten la emergencia de patrones dinámicos a nivel de la colonia. Estos patrones pueden ser materiales (como el agrupamiento de cadáveres y construcción de nidos) o sociales (como la división de tareas), y conducen a la colonia a estructurar su entorno (por ejemplo, la construcción de nidos) o a resolver problemas (por ejemplo, tomar decisiones colectivas).

Estos enjambres tienes características muy interesantes para resolver problemas, entre las cuáles cabe destacar las siguientes [16].

En primer lugar, la flexibilidad, pues las colonias o enjambres son capaces de responder a las perturbaciones internas y a los desafíos externos. También la robustez, pues las tareas se completan incluso su algunos individuos fallan. A mayores funcionan de forma descentralizada, pues no hay un controlador central en el enjambre, lo cuál también contribuye al punto anterior. Además, la comunicación entre ellos sucede de forma localizada. Por último, son autoorganizadas, los caminos a las soluciones emergen en vez de estar predefinidos.

El comportamiento en los enjambres es colectivo, surge de pequeñas reglas. Por ejemplo, el caso de la existencia de tres agentes con roles distintos, habiendo un agresor, un agredido y un defensor. El papel de agredido se guía por una simple regla, que es colocarse siempre detrás del protector respecto del agresor de forma que el protector le defienda. Igualmente, el papel del defensor es simple, debe buscar siempre colocarse entre el agredido y el agresor.

Las desventajas son que es difícil predecir el comportamiento colectivo a partir de las reglas individuales, los participantes no poseen información sobre la función del grupo, y pequeños cambios en las reglas cambian el comportamiento a nivel de grupo. Además, el comportamiento individual semeja ruido, y surge el problema de cómo detectar amenazas para el grupo o alguno de sus componentes.

Del lado positivo, es posible controlar eficientemente la organización del grupo o manipularlo usando reglas simples. Además, se puede predecir el comportamiento a nivel de grupo usando simulaciones del nivel básico [10].

Los enjambres son útiles para problemas como la selección de rutas, algoritmos como el empleado por las hormigas son simples y efectivos, aunque no robustos. Un ejemplo claro es el usual problema del vendedor itinerante, “travelling salesman problem”.

También son útiles para enrutado en redes de comunicaciones. Se lanzan agentes simples en la red, cada agente tiene un nodo origen y destino, y va actualizando las tablas de enrutado en su camino a su destino, viendo su origen como su destino, de forma que el tráfico dirigido al nodo origen debería tomar el salto que el agente tomó en el paso anterior. La influencia de los agentes se reduce con el paso del tiempo, y se ven retrasados artificialmente en los nodos congestionados [16].

De cara a trabajar con estos sistemas muy a menudo es necesario generar grupos y órdenes. Se trabaja con algoritmos que ayudan a generar agrupamientos, favoreciendo que los agentes se desplacen a ellos, y con una filosofía semejante se pueden crear órdenes.

Esto es útil por ejemplo de cara a la división del trabajo, tal como sucede en cierta especie de hormigas del sur de España. Estas hormigas recogen semillas de una fuente en una brigada compuesta de hasta seis trabajadoras. La primera y más pequeña recoge la semilla de la fuente y comienza a transportarla por el camino hasta que se encuentra una trabajadora más fuerte. Esta coge la semilla y continua el transporte de la misma hasta la colonia mientras la menor vuelve hacia la fuente de semillas, y así continuamente, es decir, si la hormiga que transporta la semilla se encuentra otra hormiga más grande se repetirá el paso anterior. Así se consigue aumentar el rendimiento global.

En la naturaleza los grupos de insectos a menudo deben construir sus nidos, colmenas o colonias [7]. Estas son arquitecturas estructuradas, usualmente modulares, que a menudo tienen patrones complejos con grandes módulo. Su construcción se produce y se puede describir con algoritmos específicos, que convergen en formas similares en cada ejecución, generalmente genéticos. Son compactos, y su generación lleva tiempo.

Algunas de las características de las arquitecturas estructuradas pueden ser formalizadas (es decir, descritas con un grafo asociado con el proceso de construcción) y cuantificadas. La cuantificación es útil de cara a definir una función de aptitud. La aptitud heurística se correlaciona bien con la noción de estructura que tiene el observador, es decir, las estructuras resultantes encajan con lo que un observador medio esperaría que se generase.

Con ello se consiguen patrones emergentes a partir de un diseño evolutivo, como por ejemplo la Ilustración 1.

 

 

 

Ilustración 1: Colonia de hormigas con un patrón emergente de un diseño evolutivo


Otra cuestión interesante que surge de las colonias o colmenas es el del transporte cooperativo, por ejemplo cuando las hormigas deben transportar algo a su colonia. Cuando un individuo no puede realizar una tarea, se reclutan compañeros y se organizan entre sí de forma que puedan realizar la tarea de forma efectiva. Esto se ha conseguido ya replicar mediante un sistema Swarm de robots muy simple, si bien los resultados no son los más eficientes posibles [11].

Un problema que afrontan estos sistemas, relacionado con la autoorganización, es la necesidad de comunicación [9]. Cuando un número de unidades han alcanzado coordinación organizada, se necesita obtener más información sobre las entradas de cara a hacer una predicción estadísticamente correcta. En una fase coordinada se necesita saber información precisa sobre cada una de las unidades participantes de cara a tener una imagen suficiente del sistema. Es decir, la medida de la entropía del sistema sobre los nuevos estados causales aumenta.

Por lo tanto, la comunicación es necesaria. Esta puede ser de tres tipos. El primero es punto a punto, por ejemplo contacto entre mandíbulas, visual, contacto químico. El segundo es comunicación en general (“broadcast”), por emisión de señales visuales o señales de radio. El tercero es indirecto, con dos individuos interactuando de forma que uno modifica el entorno y el otro responde más tarde al estímulo, lo que se conoce como Estigmergia.

De esta forma surgen diferentes algoritmos, en base al estilo comunicativo. De la Estigmergia surgen los algoritmos de hormigas (“Ants Algorithms”), en particular el ACO (“Ant Colony Optimization”, algoritmo de optimización de colonias) [16]. De la comunicación “broadcast” surgen los comportamientos de educación y movimiento en grupos, que han inspirado la PSO (“Particle Swarm Optimization”, optimización de partículas en enjambre) [15]. Por su parte, de la comunicación con vecinos surgen los autómatas celulares [2].

El uso de los tres sistemas incluye sistemas más generales que muestra comportamientos colectivos organizados, como COIN (COllective INtelligence), sistemas inmunes, algoritmos culturales, sistemas neurales, organizaciones humanas, o redes móviles ad hoc [12].

ACO y PSO son los tipos de framework más populares basados en las nociones originales de la Swarm Intelligence. En el centro de su diseño hay una forma específica de que los agentes se relacionen en el entorno espacial. Estos dos frameworks de optimización se centran en dos formas diferentes de distribuir, acceder y usar información en el entorno.

Los agentes en COIN aprenden con refuerzo, por lo que pueden ser arbitrariamente complejos. El diseño de COIN se centra en aprendizaje genérico multiagente con refuerzo, más exactamente en el rol de distribuir y manejar los valores y funciones de utilidad entre los agentes.

En una escala de complejidad, de menos a mayor, se ordenan así: PSO, ACO y COIN [16].

 

 

A. Modelos teóricos de juego para las interacciones sociales

 

La interdependencia social se define cómo las interacciones entre los componentes de una sociedad. Así se puede entender como la dependencia de los resultados finales de las acciones de un individuo respecto de otro comportamiento individual. Este tipo de relaciones sobre las elecciones de deferentes individuos se describe a menudo con el formalismo de la teoría de juegos [2]. En este formalismo el resultado un agente cambia la estructura de intereses de los demás agentes.

Un ejemplo es el dilema del prisionero, que crea un conflicto entre intereses de grupo e individuales. Consiste en un grupo de prisioneros, cuya pena depende tanto de sus propias acciones como de los demás. Si ninguno de ellos habla la pena será menor para todos que si alguno de ellos habla, pero si alguno de ellos traiciona a sus compañeros puede obtener una mayor recompensa [3].

Investigaciones matemáticas mostraron que la cooperación surgirá finalmente incluso en una sociedad de individuos egoístas, dado que los que colaboran ganan más que los que compiten. Introduciendo algoritmos genéticos se puede investigar la selección natural del comportamiento humano usando simulaciones por ordenador [6].

Las simulaciones muestran que para que la cooperación tenga éxito los jugadores deben sacrificar su racionalidad, dado que la selección natural favorece la traición sobre la cooperación en la mayoría de los casos. Entender cómo la evolución se ha producido a través de la selección natural es un problema central de las ciencias sociales y la biología.

Esto está en gran parte cubierto por teorías de altruismo recíproco y reciprocidad indirecta, y las simulaciones muestran que las estrategias recíprocas tienden a evolucionar, resultando en cooperación extendida.

Aproximándonos más a la realidad se puede introducir una tercera clase, los solitarios [3]. El dilema del prisionero asume participación obligatoria, pero en muchas situaciones los individuos pueden decidir no participar en una situación poco prometedora y arriesgada y esforzarse por su cuenta. Así, se observa una dinámica de piedra-papel-tijera. Si los traidores son lo más común, pronto la mayoría de la gente se vuelve solitarios, posteriormente, cuando los solitarios sean mayoría, cooperadores y más tarde de nuevo traidores, es una dominancia cíclica, conocida como equilibrio Nash.

Un equilibro Nash es una situación en la que todos los elementos que participan en ella están poniendo en práctica la solución que maximiza sus beneficios en base las estrategias de los demás miembros, por lo que ninguno de ellos obtiene ningún beneficio al cambiar él sólo la estrategia. Esto no significa que sea el mejor resultado global, sino simplemente que cada uno de ellos ha tomado la mejor decisión a nivel individual. Para tomar una decisión mejor a nivel global se requeriría una coordinación de acciones en algún nivel.

 

B. Elección de estrategias

 

En la teoría de elección tradicional, se modela a los agentes tomando decisiones cognitivamente sofisticadas y enteramente autointeresadas que evalúan todas las posibles consecuencias y seleccionan la acción más interesante. Esto ha probado ser bastante exitoso en términos de utilidad. Sin embargo los avances en psicología cognitiva ponen en duda esta aproximación.

Aunque la evidencia experimental apoya la visión de que las reglas de comportamiento son los motores de la mayoría del comportamiento humano. Esto puede ser descrito como un proceso de construir una interpretación satisfactoria de la situación de elección. La mayoría de reglas que usamos son mayormente defensivas, que buscan protegernos de nuestros errores perceptuales. Aunque hay la duda de si se desarrollan en patrones consistentes con lo que postula el modelo racional.

La mayoría de nuestro comportamiento es repetido, no solemos hacer cosas nuevas, pero esto a menudo no es tenido en cuenta en los modelos [3]. Mucho de nuestro comportamiento son hábitos, secuencias aprendidas de acciones. Aquello que tiene consecuencias positivas es más probable que se repita, al contrario que lo negativo. Los comportamientos repetidos pueden convertirse en hábitos, haciéndolos estables y difíciles de cambiar. Por lo tanto, la habituación se convierte en una regla de comportamiento.

Las normas sociales y los hábitos influencian a su vez los comportamientos propuestos de los individuos basados en sus preferencias actuales. Esta relación causal bidireccional se encuentra en la esencia del estudio del proceso cognitivo del proceso de toma de decisiones, y es un gran reto de la ciencia cognitiva.

A fin de representar esto, cabe tomar un modelo híbrido basado tanto en elecciones basadas en reglas, como en preferencias. Los agentes adaptan sus normas sincronizándolas con las reglas individuales de los vecinos. Cada agente aplica el modelo híbrido basado tanto en el análisis de la situación específico de cada agente (modelo de elección racional) como en los hábitos o normas sociales (modelo de elección basado en reglas). Las normas sociales se pueden tratar como restricciones sobre elecciones racionales específicas de los agentes. Cada agente se modela para evolucionar sus reglas de comportamiento, con este modelo híbrido de elección a niveles individuales se busca crear el núcleo de la emergencia de un comportamiento socialmente inteligente.


C. Aprendizaje

 

A fin de alcanzar resultados deseables es muy importante tener en cuenta cómo un individuo debe aprender en un contexto de muchos aprendices. Hay dos formas de describir el modelo de aprendizaje de la población: el microscópico, basado en el aprendizaje individual, y el macroscópico, basado en el aprendizaje social.

En el primero, los agentes se modelan para que tengan un pequeño repertorio de reglas de comportamiento, y estas son actualizadas, a través de un proceso de selección natural. Se podría decir que cada agente comprueba si otro agente aleatoriamente escogido obtiene mejores resultados, y de ser así cambia a ese comportamiento con una probabilidad proporcional a la diferencia entre ambos comportamientos, es decir, a la mejora que se obtendría [12].

En este modelo, no hay imitación ni intercambio de experiencias. Sin embargo, el aprendizaje social se vuelve valioso en un contexto social ya que puede hacer surgir nuevas ideas y producir un consenso en temas que ningún individuo solo puede decidir por sí solo. El aprendizaje social tiene el proceso interno para cultivar aprendizaje individual y conectarlo a otros. Así, ante cambios, el colectivo tiene la energía y flexibilidad necesaria para moverse en la dirección que quiera [3].

En el segundo, los agentes actúan basados en reglas de comportamiento prescritas. El beneficio conjunto de cada juego proporciona el rendimiento del agente. Después de que cada individuo haya jugado con sus vecinos, cada regla de los agentes se actualiza de acuerdo a reglas evolutivas generales, y se cruza la regla de comportamiento con la regla de comportamiento más exitosa de sus vecinos. Su éxito depende en gran medida en cómo de bien aprenda de sus vecinos. Si un agente obtiene más beneficio que su vecino, hay una posibilidad de que su regla de comportamiento sea imitada por otros.

El aprendizaje social en sí mismo se puede entender como consecuencia de cualquiera de tres mecanismos. Uno podría ser que los individuos más efectivos son más propensos a sobrevivir y reproducirse. Una segunda sería que los agentes aprenden por prueba error, manteniendo reglas efectivas y alterando las que no lo son. Una tercera sería que los agentes se observan entre sí, y los que rinden mal tienden a copiar a los que ven que lo hacen mejor.

 

E. Campos relacionados

 

La computación emergente se ha visto influenciada y toma muchos préstamos de otras disciplinas, en especial de la biología. La biología de sistemas ha inspirado muchas aproximaciones basadas en ella, como modelos y métodos biomiméticos, como ejemplifica la Swarm Intelligence. Las redes neuronales, forman la base de muchos sistemas de “clustering” (agrupamiento), clasificación y aprendizaje.

Los algoritmos genéticos proporcionan una técnica adaptativa de optimización basada en el proceso natural de evolución. Una población de individuos representando las posibles soluciones para un problema dada se subyugan al principio darwiniano de “supervivencia de los más capaces” a lo largo de las sucesivas generaciones [6].

Los individuos más exitosos propagarán sus características a través de genes que serán recombinados en la creación de nuevos individuos. A medida que la población evoluciona adaptándose al entorno a través de mutación y selección natural, se mejoran los resultados obtenidos.

Dados que los agentes se crean al comienzo con características aleatorias es posible que no se hayan adaptado a un entorno específico puede suceder que tarden demasiado tiempo para que emerja un buen resultado o puede incluso que no se consiga una solución.

Los conceptos de los algoritmos genéticos como selección, cruce y mutación pueden mejorar enormemente el rendimiento del sistema.

 

Bibliografía:

 

[1] “Emergent Intelligence of Networked Agents”. Namatame, Akira et al. Springer, 2007

[2] “The emergence of Complexity”. Jochen, Fromm. Kassel University Press, 2004

[3] “Collective Intelligence of Networked Agents”. Namatame, Akira.

[4] Rzevski, George y Skobelev, Petr. “Emergent Intelligence in Large Scale Multi-Agent Systems”.

[5] Lalbakhsh, Pooia y N.Feshraki, Mehdi. “Basic Concepts and Anatomy of Swarm intelligence and its Roles in Today and Future network centric Environments”.

[6] Dehuri, Satchidananda; Cho, Sung-bae y Ghosh, Ashish. “Wasp: A multi-agent System for Multiple Recommendations Problem”. 4th International Conference on next generation Web Services Practices. 2008

[7] “Swarm Intelligence: From Natural to Artificial Systems”.

E. Bonabeau, M. Dorigo, y G. Théraulaz. Santa Fe Institute Studies on the Sciences of Complexity. Oxford University Press, New York,

NY, USA, 1999.

[8] Di Marzo Serugendo, Giovanna; Gleizes, Marie-Pierre y Karageorgos, Anthony.  “Self-Organisation and Emergence in MAS: An Overview”, Informatica 30 (2006) pp 45–54 pp.

[9] Di caro, Gianni. An Introduction to Swarm intelligence Issues. Disponible: www.idsia.ch/~gianni/Lectures/swarm-part-1.pdf

[10] Bonabeau, Eric. Swarm Intelligence. Disponible: courses.washington.edu/gis203/handouts/bonabeau03-etcon.pdf

[11] http://webdocs.cs.ualberta.ca/~kube/

[12] Jan 't Hoen, Pieter y M. Bohte, Sander. “COllective INtelligence with Sequences of Actions. Coordinating actions in Multi-Agent Systems”

[13] Mihaylov, Mihail; Nowe, Ann y Tuyls, Karl, “Collective Intelligent Wireless Sensor Networks”.

[14] Niriaska, Perozo Guédez. Modelado Multiagente para Sistemas Emergentes y autoorganizados.

[15] Shangxiong, Sheng. A Particle Swarm Optimization(PSO) Algorithm Based on Multi-Agent System 

[16] Di caro, Gianni. The Ant Colony Optimization (ACO) Metaheuristic: a Swarm Intelligence Framework for Complex Optimization Tasks. Disponible: http://www.idsia.ch/~gianni/Lectures/BertinoroLectureACO.pdf

[17] Molina Rondón, Jose Miguel. Modelado y simulación mediante sistemas multiagente de la evacuación de personas de edificaciones de varios pisos en presencia de obstáculos.

[18] Di caro, Gianni. The Ant Colony Optimization (ACO) Metaheuristic: a Swarm Intelligence Framework for Complex Optimization Tasks. Part IV: ACO for Routing in networks. Disponible: http://www.idsia.ch/~gianni/Lectures/BertinoroLectureNetworks.pdf

[19] G. Di Caro, F. Ducatelle and L.M. Gambardella, "AntHocNet: an adaptive Nature-inspired algorithm for routing in mobile ad hoc networks", European Transactions on Telecommunications, Vol. 16(5), 2006

[20] Shangxiong, Sheng. “A Particle Swarm Optimization (PSO) Algorithm Based on Multi-Agent System”. 2008 International Conference on Intelligent Computation Technology and Automation

[21] Dasgupta, Dipankar. Advances in Artificial Immune Systems. IEEE COMPUTATIONAL INTELLIGENCE MAGAZINE | NOVEMBER 2006 

[22] Negoita, Mircea. “Artificial Immune Systems—An Emergent Technology for Autonomous Intelligent Systems and Data Mining”.

[23] K. Harmer, Paul; D. Williams, Paul; H. Gunsch, Gregg and B. Lamont, Gary. “An Artificial Immune System Architecture for Computer Security Applications” IEEE TRANSACTIONS ON EVOLUTIONARY COMPUTATION, VOL. 6, NO. 3, JUNE 2002

[24] G. Reynolds, Robert; Peng, Bin, y Whallon, Robert. “Emergent Social Structures in Cultural Algorithms”

[25] Kobti, Ziad; G. Reynolds, Robert y Kohler, Tim. “A Multi-Agent Simulation Using Cultural Algorithms: The Effect of Culture on the Resilience of Social Systems”