jueves, 13 de septiembre de 2007

Sistemas complejos, caos y vida artificial, Sergio A.

Sistemas complejos, caos y vida artificial Sergio A. Moriellohttp://www.redcientifica.com/aut...Ingeniero en Electrónica y Periodista Científico

El planeta Tierra rebosa de fenómenos que parecen caóticos aunque, en realidad, se ciñen a reglas estrictas pero difíciles de desentrañar. Su estructura es tan compleja, con tanta cantidad de variables implicadas, que parece imposible hacer una predicción a un futuro siquiera relativamente cercano. En este artículo se intenta dar una somera idea de la relación entre los sistemas, la complejidad, la auto-organización, el caos, los fractales, las redes y la vida artificial.
Un sistema es un conjunto de elementos o partes que interaccionan entre sí a fin de alcanzar un objetivo concreto. De aquí se desprenden dos implicancias fundamentales. Primero, que existe una influencia mutua entre sus elementos componentes, es decir, que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al resto. Y segundo, que una serie de elementos reunidos (es decir, un conjunto), que no persigue un propósito común (un objetivo), de ninguna manera constituye un sistema. En síntesis, para que el comportamiento de un sistema esté adecuadamente descripto, es necesario conocer, además de sus elementos, las interacciones o relaciones entre ellos. Pero no sólo eso: también se requiere saber sus estados (los valores instantáneos de todos los elementos) y sus transiciones (los cambios dinámicos de esos estados). En otras palabras, se deben describir tanto la estructura (lo que es el sistema) como la función (lo que hace el sistema), dos enfoques complementarios de una misma realidad.
Un sistema es algo más (y algo menos) que la simple suma de sus elementos constitutivos. Por un lado, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos; y, por otra parte, se reprimen o inhiben algunas de sus propiedades intrínsecas. Existen varios ejemplos de ellos. Partiendo de harina, agua, sal y levadura, y a través de un proceso de cocción, surge el pan, algo totalmente diferente y que tiene otros atributos o cualidades que los ingredientes con los que se origina. Los cardúmenes, los enjambres y las manadas se comportan -como conjunto- de manera distinta a como lo hacen sus individuos componentes. Una neurona por sí misma no posee ningún tipo de inteligencia, pero miles de millones de ellas interactuando entre sí pueden originar una mente, algo totalmente diferente. Este comportamiento surge únicamente cuando el sistema se considera como un todo, como algo global y colectivo.
Dado que todo sistema se encuentra inmerso en un medio ambiente, en general, éste va a afectar tanto su funcionamiento como su rendimiento. Para medir, en cierta forma, esta influencia o interacción aparece el concepto de "permeabilidad". Los sistemas escasamente permeables (es decir, aquellos que no intercambian o intercambian poca materia, energía o información con el entorno) se conocen con el nombre de "sistemas cerrados". Por el contrario, los sistemas mediana y altamente permeables son los que presentan alguna o mucha interacción con el medio ambiente y se denominan "sistemas abiertos". Por supuesto, existen diferentes grados de permeabilidad; de este modo, un sistema que interactúa poco con su entorno recibe el nombre de "parcialmente abierto". Asimismo, y dentro de la categoría de sistemas abiertos, están aquellos que son influidos pasivamente por el medio ambiente, llamados "no adaptativos", y los que reaccionan y se adaptan al entorno, llamados "adaptativos".
Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar de estar inmerso en un entorno cambiante, mantiene su estado interno, se llama "homeostático". En otras palabras, la homeostasis define la tendencia de un sistema a su supervivencia dinámica. Los sistemas altamente homeostáticos siguen las transformaciones del contexto a través de ajustes estructurales internos. Un ejemplo típico de este tipo de sistema lo constituye una compañía. No obstante, vale aclarar, si el sistema no puede acomodarse al "esfuerzo tensional" (estrés) que padecen por parte del medio ambiente -modificando su estructura o su función- puede transformarse o deteriorarse parcial o totalmente, temporal o permanentemente. La resistencia de un sistema al estrés depende tanto de su estructura como de su función.
Sistemas complejos
Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este vocablo hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por el momento, no existe una definición precisa y absolutamente aceptada de lo que es un sistema complejo, pero pueden darse algunas peculiaridades comunes. En primer término, está compuesto por una gran cantidad de elementos relativamente idénticos. Por ejemplo, el número de células en un organismo, o la cantidad de personas en una sociedad. En segundo lugar, la interacción entre sus elementos es local y origina un comportamiento emergente que no puede explicarse a partir de dichos elementos tomados aisladamente. Un desierto puede contener billones de granos de arena, pero sus interacciones son excesivamente simples comparadas con las que se verifican en las abejas de un enjambre. Por último, es muy difícil predecir su evolución dinámica futura; o sea, es prácticamente imposible vaticinar lo que ocurrirá más allá de un cierto horizonte temporal.
En la naturaleza se pueden encontrar una gran cantidad de ejemplos de sistemas complejos que se extienden desde la física hasta la neurología, desde la economía hasta la biología molecular, desde la sociología hasta las matemáticas. Por ese motivo, esta clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas, no importa su naturaleza (física, química, biológica o social); entre ellas, las leyes de crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos de sistemas complejos se pueden mencionar -entre otros- una célula, un cerebro, un organismo, una computadora, un ecosistema, una sociedad de insectos, un sistema inmunológico o una economía de mercado.
La mayoría de los sistemas complejos son inestables, se mantienen delicadamente equilibrados. Cualquier variación mínima entre sus elementos componentes puede modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento de todo el sistema. Así, la evolución de esta clase de sistemas se caracteriza por la intermitencia (o fluctuación), aquella situación en la que el orden y el desorden se alternan constantemente. Sus estados evolutivos no transcurren a través de procesos continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada nuevo estado es sólo una transición, un período de "reposo entrópico", en palabras del Premio Nobel ruso-belga Ilya Prigogine.
Estos sistemas nunca llegan a un óptimo global, al estado de mínima energía. En general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación del orden pre-existente. Pero después, comienzan a surgir regularidades que organizan al sistema de acuerdo con nuevas leyes, produciendo otra clase de desarrollo. Este comportamiento es típico en los sistemas naturales: por ejemplo, el tránsito, en los insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior.
Auto-organización
El orden y el desorden se necesitan el uno al otro, se producen mutuamente; son conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un organismo puede seguir viviendo a causa de la muerte de sus células; o una organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se consigue sin que intervengan factores externos al sistema, se hace mención a un proceso de "auto-organización".
La auto-organización se erige como parte esencial de cualquier sistema complejo. Es la forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de elementos en otro nivel, los cuales se comportan de una manera muy diferente. Por ejemplo, entre otros, las moléculas a las macromoléculas, las macromoléculas a las células y las células a los tejidos. De este modo, el sistema auto-organizado se va construyendo como resultado de un orden incremental espacio-temporal que se crea en diferentes niveles, por estratos, uno por encima del otro.
Los sistemas autoorganizados se mantienen dentro del estrecho dominio que oscila entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia anárquica. Una condición muy especial, con suficiente orden para poder desarrollar procesos y evitar la extinción pero con una cierta dosis de desorden como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce -desde antaño- como "transiciones de fase", o -más modernamente- como lo llama el doctor en Ciencias de la Computación, antropólogo y filósofo estadounidense Christopher Langton: el "borde del caos". Es en esta delgada franja en donde se ubican los fenómenos que edifican la vida y las sociedades.
Por último, se puede aclarar que, aunque no es posible analizar matemáticamente la evolución de muchos de estos sistemas, se los puede explorar -sin embargo- a través de experimentos numéricos (con sistemas informáticos). Esto se debe a que, desde el punto de vista computacional, son sistemas irreducibles; es decir, la única forma de estudiar su evolución es mediante la observación directa (o sea, permitiendo que evolucionen). Para su estudio, en consecuencia, se emplean potentes sistemas computacionales en donde se simulan sus componentes, sus conexiones y sus interacciones, observándose la dinámica emergente.
Sistemas caóticos
Durante el siglo pasado, los científicos clasificaban a los sistemas según su grado de predictibilidad. Así, un sistema es determinístico cuando su comportamiento es bastante predecible, determinado, cuando parece seguir unas ciertas reglas y es probabilístico -o estocástico- cuando no hay certeza de su estado futuro, sólo una probabilidad, cuando aparece un orden estadístico, un orden promedio. No obstante, esta burda y tosca clasificación sufrió severos embates durante el último medio siglo. Por ejemplo, se descubrió que muchos sistemas dinámicos no lineales se comportan -en ciertas condiciones- de forma tan compleja que parecen probabilísticos, aunque, en realidad, son determinísticos. En otras palabras, a pesar de que las reglas -a nivel local- son muy simples, el sistema -a nivel global- puede tener un comportamiento inesperado, no predecible. Se trata de un "sistema caótico".
Una de las singularidades que caracterizan a los sistemas caóticos es que dependen sensiblemente de las condiciones iniciales. Un insignificante cambio en las condiciones de partida se amplifica y propaga exponencialmente a lo largo del sistema y es capaz de desencadenar -a futuro- un comportamiento totalmente diferente o, incluso, una imprevista catástrofe. Es decir, configuraciones iniciales casi idénticas, sometidas a influencias externas casi iguales, acaban transformándose en configuraciones finales absolutamente distintas. Y es este el motivo por el cual es prácticamente imposible hacer una predicción del estado final de estos sistemas complejos.
Sin embargo, el caos no es más que un desorden solamente en apariencia, tiene muy poco que ver con el azar. Aunque parecen evolucionar de forma aleatoria y errática, estos sistemas tienen -en realidad- un cierto orden interno subyacente. Por eso, aun cuando son impredecibles, también son determinables. Esto significa que su estado futuro está determinado por su estado actual y obedece estrictas leyes naturales de evolución dinámica (en forma de complicadas ecuaciones diferenciales no lineales). Pero estos sistemas son tan irregulares que jamás repiten su comportamiento pasado, ni siquiera de manera aproximada. Por ejemplo, y aún cuando se conozcan con gran precisión las ecuaciones meteorológicas y se puedan medir las variables críticas (temperatura, humedad, presión, masa y velocidad del viento), es muy difícil predecir con exactitud las variaciones climáticas más allá de un cierto tiempo posterior. Otros sistemas caóticos lo constituyen los fluidos en régimen turbulento, la dinámica de la atmósfera, las reacciones químicas, la propagación de enfermedades infecciosas, los procesos metabólicos de las células, el mercado financiero mundial, los movimientos de grupos animales (cardúmenes o enjambres), la aparición aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano, etc.
El caos parece formar parte de la estructura misma de la materia y está muy ligado a los fenómenos de auto-organización, ya que el sistema puede saltar espontánea y recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado y, súbitamente, forma un chorro ordenado. Estos sistemas se caracterizan por su flexibilidad y adaptación (y, en consecuencia, por su estabilidad), lo cual les permite enfrentar las condiciones cambiantes e impredecibles del entorno. Operan bajo una extensa gama de condiciones, ya que parecen estar formados por una compleja estructura de muchos estados ordenados, aunque normalmente ninguno de ellos se impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único comportamiento). Por lo tanto, se puede controlar su evolución con ínfimas correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se los perturba adecuadamente, se los puede obligar a que tome uno de los muchos posibles comportamientos ordenados.
Fractales y naturaleza
La teoría del caos estudia la evolución dinámica de ciertas magnitudes. Al representar geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los caracterizan. Existe un comportamiento caótico cuando dichos modelos -a lo largo de extensos períodos de tiempo- oscilan de forma irregular, aperiódica; parecen girar asintóticamente en las inmediaciones de ciertos valores, como si describieran órbitas alrededor de ellos. Estos valores se conocen con el nombre de "atractores caóticos", "atractores extraños" o, simplemente, "atractores" (debido a que parecen atraer las soluciones hacia ellos) y su particularidad es que presentan propiedades fractales.
Un "fractal" es una estructura geométrica que tiene dos características principales: la "auto-semejanza" y la "dimensión fraccionaria". La auto-semejanza significa que posee la misma estructura cualquiera sea la escala en que se la observa; es decir, a través de sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental (conserva el mismo aspecto). Por otro lado, la dimensión fraccionaria mide el grado de irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que se comparten las propiedades de una recta y de un plano. No obstante, la fractal no tiene el mismo significado que las dimensiones del tradicional espacio euclidiano: fractales con dimensiones enteras (1 y 2), no se parecen en nada a una línea o a un plano, respectivamente.
En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas, franjas costeras, cauces de ríos, turbulencias de las aguas, copos de nieve, y una gran cantidad de otros objetos difíciles de describir por la geometría convencional. Como se puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante de tiempo, congelado en una etapa precisa de su desarrollo. Y es justamente este concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales con la naturaleza.
Una estructura fractal es aquella que se genera por la repetición incansable de un proceso bien especificado (o sea, está gobernado por reglas determinísticas). Así, la naturaleza es capaz de crear eficazmente infinidad de formas -con diferentes grados de complejidad- únicamente reiterando innumerablemente el mismo proceso. E ínfimas modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por eso que la mayoría de los procesos caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos naturales aparentan tener una enorme complejidad, aunque -en realidad- poseen la misma regularidad geométrica (concepto de auto-semejanza). Sólo así se explica que existan 6.000 millones de seres humanos diferentes, a pesar de que el proceso de gestación sea idéntico, y que una mínima diferencia en el código genético de chimpancés y humanos haya engendrado especies tan distintas. Este proceso también puede esclarecer, en buena medida, cómo la escasa información contenida en una célula germinal es capaz de originar seres tan increíblemente complejos.
El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo (indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da gracias a la "especialización" y a la "división del trabajo": progresivamente algunos elementos se encargan de acciones específicas, al tiempo que se observa una subordinación a elementos dominantes (llamadas, a veces, "partes conductoras"). De esta forma, se instala en el sistema un "orden jerárquico" de partes o procesos. Este principio de diferenciación es muy frecuente tanto en biología como en psicología y, aun, en sociología. En el desarrollo embrionario, por ejemplo, las células se van agrupando y subordinando a los llamados "organizadores". En el cerebro también se comprueba una superposición de "estratos neuronales" que adoptan el papel de partes conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse, un conjunto de personas debe agruparse alrededor de uno o varios líderes.
Redes complejas
Muchos sistemas biológicos, sociales o de comunicación se pueden describir adecuadamente a través de redes complejas cuyos nodos representan individuos u organizaciones, y los enlaces simbolizan las interacciones entre ellos. Una clase importante de redes son aquellas que cumplen con las reglas de un "mundo pequeño", cuya topología exhibe dos rasgos esenciales: todo nodo está fuertemente conectado con muchos de sus vecinos pero débilmente con algunos pocos elementos alejados (fenómeno conocido como apiñamiento, agrupamiento o "clustering") y todo nodo puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe una pequeña "distancia" entre ellos) . Esto implica dos cosas: que la información se transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño número de nodos claves por donde circula un gran porcentaje del tráfico total. Son redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de difusión de una epidemia, la estructura de una red de transmisión eléctrica, la navegación a través Internet, las proteínas en una célula humana, los patrones lingüísticos, las redes de colaboración social, las relaciones entre especies de un ecosistema, etc.
Muchas de estas redes de mundo pequeño son también "redes independientes de la escala" (scale-free networks), que se caracterizan por un escaso número de nodos con muchos enlaces (denominados "concentradores" o "hubs") y una enorme cantidad de nodos con muy pocas conexiones . Este tipo de estructura explica por qué algunas redes son generalmente muy estables y robustas (frente a posibles errores aleatorios), pero muy propensas a ocasionales colapsos catastróficos (por posibles ataques maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es capaz de funcionar con normalidad; pero si se quita alguno de los concentradores, el sistema puede sufrir una hecatombe. Es lo que ocurre, por ejemplo, cuando fallece o desaparece el líder de un partido político o de un equipo de fútbol. Esta topología también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué algo insignificante puede transformarse en un fenómeno de colosales proporciones si encuentra el camino adecuado.
Ahora bien, ¿cómo surge este tipo de orden? Aparentemente, estas redes siguen el mismo patrón de auto-organización de los sistemas complejos: los nuevos nodos agregados tienden a formar conexiones con aquellos que ya están bien conectados (las partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De allí que los hubs también parecen ser los responsables de mantener la cohesión de este tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en ellos pueden ocasionar cambios en el funcionamiento de la red. Asimismo, algunos investigadores especulan -es necesario aclarar- que los sistemas naturales evolucionan hacia redes de mundo pequeño, porque tienen una elevada tolerancia a las fallas (la conexión de cualquier pareja de nodos puede establecerse a través de varios caminos alternativos), y hacia redes independientes de la escala, porque utiliza más eficientemente los recursos que las redes aleatorias (resuelve adecuadamente el conflicto entre las necesidades de bajo costo y alto rendimiento).
Aun cuando su funcionamiento puede ser muy diferente entre una red y otra, el hecho de que compartan la misma topología permitiría estudiar las más complejas a partir de las más simples. Así, por ejemplo, si las redes neuronal y genética pertenecieran a la misma categoría genérica, los científicos podrían aprender mucho más sobre el sistema nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero también, quizás, se podrían responder algunas preguntas de difícil respuesta: ¿cuánto depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable?
Vida artificial
La vida se constituye en el ejemplo más acabado de estructuras muy complejas que surgen a partir de estructuras mucho más simples. Se trata de una propiedad emergente, resultado de la interacción entre sus elementos y de la dinámica propia del sistema. En efecto, cualquier forma de vida es -en esencia- un sistema altamente complejo, con una estructura físico-química particular, que exhibe una elevada organización y se sitúa en el borde del caos. Entre sus características definitorias, se pueden incluir su capacidad para: la autorreproducción, el almacenamiento de información, el crecimiento, la adaptabilidad (al entorno), la interdependencia (con otras formas de vida) y la evolución.
La "Vida Artificial" (en inglés Artificial Life o, abreviadamente, A-Life) es un campo del conocimiento muy joven (nació a fines de 1987) que tiene como objetivo el desarrollo de sistemas artificiales que muestran las características distintivas de los sistemas vivos naturales. De acuerdo con Christopher Langton -"padre" de esta disciplina- es "el estudio de la vida natural, donde 'vida' se entiende que incluye, más bien que excluye, a los seres humanos y sus artefactos". Investiga algunos procesos que transcurren a diferentes niveles (molecular, celular, orgánico, social-evolutivo), y su aspecto más abarcativo incluye desarrollos meramente teóricos, experimentos biológicos y químicos, y simulaciones sobre computadoras. La importancia de su estudio radica en que los sistemas naturales constituyen excelentes fuentes inspiradoras para el desarrollo de la tecnología. En efecto, el biológico es un modelo muy optimizado que ayuda al ser humano a solucionar -con extraordinaria eficacia- muchos problemas complejos no convencionales que surgen de la interacción con el entorno. De allí que la aplicación de esta nueva disciplina se perfila como una de las ramas más innovadoras y revolucionarias de lo que será la computación durante el transcurso del presente siglo.
La Vida Artificial es conceptualmente parecida a la Inteligencia Artificial, aunque -por supuesto- existen una serie de diferencias clave. Mientras la última intenta comprender y abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y abstraer la esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre ellas es bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto que muchos investigadores predicen que convergerán en el futuro. La inteligencia, en definitiva, es un producto de la evolución; y dado que la vida biológica y la inteligencia son mutuamente dependientes, también la Vida Artificial y la Inteligencia Artificial exhiben una cierta codependencia.
La arquitectura básica de estos sistemas consiste en un abrumador número de "criaturas" relativamente simples, que forman densas redes de interacción y operan paralela y simultáneamente sin que exista un control central. Los comportamientos individuales no están programados implícitamente; los científicos sólo se limitan a darles un conjunto reducido de reglas de interacción que especifican lo que debe hacer cada una de ellas de acuerdo con la situación en que se encuentre. Nadie es capaz de saber con precisión qué actitud tomará cualquiera de ellas en un momento dado. Y, debido a que se verifica un fenómeno de emergencia de alto nivel (es decir, inteligente) a partir de interacciones de bajo nivel (o sea, entre entidades no inteligentes), el conjunto puede resolver problemas que cada uno de sus individuos componentes es incapaz de realizar.
Inteligencia de enjambre
El comportamiento complejo, que un observador podría considerar intencional, puede ser -de hecho- el resultado de las numerosas interconexiones que se establecen entre una enorme cantidad de entidades individuales. Por ejemplo, considerada aisladamente una hormiga es una criatura sumamente tonta, estúpida, capaz únicamente de ejecutar -aunque de forma fiel y obstinada- un pequeño conjunto de rutinas innatas, pero condicionada por el entorno circundante. No obstante, tomadas en grupo, son capaces de erigir sociedades complejas con sofisticadas actividades como agricultura, ganadería, arquitectura, ingeniería e, incluso, prácticas de esclavitud. De esta forma, podría considerarse al hormiguero como un macroorganismo, que presenta un comportamiento global inteligente. Es decir, nadie planifica, nadie ordena ni controla, pero surge un comportamiento colectivo -quizás instintivo- o una necesidad que las "obliga" a trabajar juntas persiguiendo un fin común.
Utilizando como ejemplo la conducta social de los insectos, modernamente los investigadores en ciencias de la computación desarrollaron algoritmos muy útiles para resolver algunos problemas prácticos muy complicados; un enfoque conocido como "inteligencia de enjambre". En este caso, las hormigas artificiales son agentes de software que se simulan en una computadora. Una aplicación interesante de esta técnica es la de encontrar el camino más corto para establecer las rutas en Internet; en otras palabras, cómo encaminar eficientemente los mensajes entre los nodos de la red (los routers). Vale la pena aclarar que resolver este problema se torna actualmente muy importante, ya que cuanto mayor es el "tráfico" de los paquetes de datos, mayor es el costo de la conexión a Internet (ya que se incrementa el tiempo para pasar de un nodo a otro).
El algoritmo de búsqueda funciona de la siguiente manera. Cada hormiga virtual -de un conjunto enormemente grande de ellas- sale en busca de "alimento" alrededor de su "hormiguero" (el punto de partida), de una forma más o menos al azar. Entonces, cada insecto "marca" el camino realizado con una "feromona" (la cual guarda una cierta relación con la "longitud" o distancia recorrida) que otras pueden seguir. Dado que la feromona se "evapora" con el tiempo, las "buenas" rutas (las más cortas) se hacen más atractivas que las "malas" para el resto de las hormigas, con lo cual se intensifica cada vez más el rastro de feromonas en esa ruta. Al final del proceso, lo habitual es que se seleccione el rastro más fuerte, que justamente es la ruta más corta entre el punto de partida y el punto de llegada. Lo interesante de esta técnica es que las hormigas pueden adaptarse al entorno: dado que éste es dinámico, es posible que surjan determinadas complicaciones, como el bloqueo o la congestión en las rutas. Debido a que la concentración de feromonas se mantiene durante un cierto tiempo y a que exploran sin cesar nuevos trayectos, las hormigas establecen instintivamente rutas alternativas, con lo cual siempre están preparadas para responder a los cambios del entorno.
Otros usos de esta técnica son en el análisis de datos financieros, en la resolución de problemas de producción industrial y en la búsqueda de páginas interesantes por la web. Sin duda, a medida que transcurra el tiempo, seguirán apareciendo más aplicaciones prácticas de la inteligencia de enjambre. Si la computación ubicua forzará a que todos los objetos tengan incrustado un chip (desde las alhajas hasta los muebles, pasando por los artículos de librería y los electrodomésticos), será necesario desarrollar algoritmos de control que permitan la comunicación eficaz y eficiente de todos estos desperdigados pedazos microscópicos de silicio.
Amenazas
¿Puede el ser humano crear nuevas formas de vida? ¿Es imprescindible que sean de tipo orgánico para considerarlas como tales? Más específicamente, ¿puede considerarse como un ser vivo algo virtual, algo que carece de una existencia física? ¿Puede estar viva una entidad o un grupo de entidades que únicamente existe como una simulación computacional? Es decir, si algo ejecuta complicados movimientos como un insecto y se comporta como tal, pero no tiene un cuerpo físico material, tangible, sino que adopta la forma abstracta de microcódigos de programación en el interior de una supercomputadora... ¿es un insecto? Y en el supuesto caso de que no lo sea, entonces ¿qué es? En otras palabras, ¿cómo exactamente debe comportarse algo -en este caso, una entidad- para que alguien -en este caso, una persona- pueda afirmar que está vivo?
Asimismo, y por carecer de una definición unánimemente aceptada del concepto de vida, aparecen interrogantes paradójicos. Por ejemplo: ¿están "vivos" los virus? Algunos de ellos pueden permanecer latentes por mucho tiempo al cristalizar en una célula orgánica muerta y volver a la actividad cuando consiguen otra oportunidad para infectar. De igual forma, se podría preguntar si se encuentra vivo un embrión congelado. En estos casos, la línea que divide lo viviente de lo inerte (tan evidente hace sólo unas décadas), aparece ahora tan difusa que -a veces- es extremadamente difícil distinguir lo vivo de lo muerto.
Si bien este tipo de "vida virtual" (erigida a través de programas de computadora) quizás sea difícil de aceptar, ¿qué ocurre con la "vida seca", aquella formada por autómatas físicamente tangibles? Este concepto, ¿no se acerca más a la "vida húmeda", es decir, la compuesta por organismos biológicos? ¿Y qué pasará cuando la sinergia entre la ingeniería genética y la nanotecnología sea capaz de producir/engendrar nuevas y originales entidades? Miles de millones de años de evolución natural produjeron un mundo donde la supervivencia y el bienestar de cada organismo está ligado -muchas veces fuertemente- al de innumerables especies. Todo está tan interrelacionado y delicadamente equilibrado que la muerte (o el nacimiento) de una especie puede causar devastadores efectos sobre algunas otras (a veces, muchas). Sin dudas, el dejar evolucionar libremente a estas "nuevas especies" dispare fantasías de descontrol, ya que podrían evolucionar -siguiendo reglas lamarckianas- mucho más rápido que los humanos, y quizás los condicionen como nunca antes…
Sobre el autor
Sergio A. Moriello trabaja en la actualidad en Telefónica Argentina. Es periodista científico, ingeniero en electrónica y posgraduado en administración empresarial.
Otros documentos del mismo autor
Sistemas complejos, caos y vida artificial Sergio A. Moriello
Las computadoras personales del próximo milenio Sergio A. Moriello
Computación Suave Sergio A. Moriello
Intelectos ultrarracionales Sergio A. Moriello
Inteligencias Sintéticas Sergio A. Moriello
Ayudantes personales artificiales Sergio A. Moriello
Datamining: Oráculos de silicio Sergio A. Moriello
Mentes tecno-orgánicas Sergio A. Moriello
Cyborgs: hijos de la mente Sergio A. Moriello
El ajedrez del siglo XXI Sergio A. Moriello
Otros documentos del mismo autor
Mentes tecno-orgánicas Sergio A. Moriello
Cyborgs: hijos de la mente Sergio A. Moriello
El ajedrez del siglo XXI Sergio A. Moriello
Datamining: Oráculos de silicio Sergio A. Moriello
Ayudantes personales artificiales Sergio A. Moriello
Inteligencias Sintéticas Sergio A. Moriello
Intelectos ultrarracionales Sergio A. Moriello
Computación Suave Sergio A. Moriello
Las computadoras personales del próximo milenio Sergio A. Moriello
Evolución sinérgica hombre-máquina Sergio Moriello
Las máquinas del futuro, ¿podrán llegar a ser conscientes? Sergio Moriello
Sistemas complejos, caos y vida artificial Sergio A. Moriello
© Copyright 2003 Sergio A. Moriello.© Copyright 2003 REDcientífica.Todos los derechos reservados.