TEORÍA DE SISTEMAS Y COMPLEJIDAD: PARTE 1
KURT A.
RICHARDSON
ISCE Research,
US
La motivación para esta escribir
esta serie por partes se debe al hecho de haber observado que la gran mayoría
de lo que se ha escrito sobre la Teoría de la Complejidad parece haber ignorado
arbitrariamiente la vasta literatura que existe sobre Teoría de Sistemas. No sé
si esta omisión es deliberada (Por ejemplo, motivada por la necesidad política
de diferenciar y promover un conjunto de temas antes que otros; una situación
desafortunadamente manejada por un proceso de financiación reduccionista) o
simplemente como resultado de la ignorancia. De hecho, Phelan (1999) admitió
que él estaba “un tanto sorprendido como
desconcertado por haber encontrado tan extensa literatura (haciendo referencia
a la teoría de sistemas) virtualmente
desconocida en la literatura de la complejidad.” Yo voy a tratar de asumir
lo mejor de la comunidad de la complejidad y sugeriré que la razón por la cual
la Teoría de Sistemas ha sido olvidada es la ignorancia, y espero que este, y
subsiguientes, artículos van a familiarizar al pensador complejo con algunos
aspectos de la Teoría de Sistemas; lo suficiente como para demostrar la
necesidad legitima para prestar más atención a esta comunidad en particular y a
la literatura asociada. El próximo 11th Annual ANZSYS Conference/Managing the Complex V Systems Thinking and
Complexity Science: Insights for Action (Dicha convocatoria que se puede
encontrar en la sección "Event Notices" de este número) es un intento
deliberado de forjar una relación más abierta y colaborativa entre los teóricos
de sistemas y de la complejidad.
Sin duda existen diferencias entre
las dos comunidades, algunas de estas son analizadas por Phelan (1999). Seis
años después del artículo de Phelan, encontré que algunas de las diferencias
que él discutía se han disuelto en algo, si no enteramente. Por ejemplo, él
propuso que la Teoría de Sistemas está más preocupada con “la solución del
problema” o el análisis confirmatorio y tiene una crítica inclinación
interpretativa hacia ésta, mientras que la Teoría de la Complejidad se enfoca
en lo exploratorio y en lo positivista. Dada la difusión que ha tenido hoy en
la literatura científica sobre administración el tema relacionado con la
complejidad en la gestión organizacional, me atrevo a argumentar que la
comunidad de la complejidad está más inclinada hacia un análisis confirmatorio
que lo que pudo haber estado en 1999. Yo creo que parte de la valoración que
hace Phelan sobre Teoría de la Complejidad diciendo que es positivista viene
dado por su caracterización de la complejidad como una preocupación por el
modelado basado en agentes. De nuevo, esto pudo haber sido cierto en 1999, pero
yo creo que esta valoración es un poco forzada para 2005. Veamos por ejemplo a
Cilliers (1998) y Richardson (2004) con puntos de vista sobre la complejidad
que exploran los límites de un enfoque que sólo tiene en cuenta la mirada
positivista de la complejidad. También, haciendo referencia a la introducción
que hace Goldstein en Why complexity and
epistemology? tenemos razones para justificar por qué una caracterización
puramente positivista de la Teoría de la Complejidad ya no es apropiada. Yo
creo que todavía es válido sugerir que hay diferencias filosóficas y
metodológicas entre los que apoyan las teorías de sistemas y de la complejidad,
sin embargo, si uno tiene una mirada lo suficientemente crítica existe mucha diversidad
entre estas dos corrientes como para limitarse a la caracterización simplista
que se hizo en primer lugar.
Evidentemente aún quedan
diferencias entre la Teoría de Sistemas y la Teoría de Complejidad, pero
también hay muchas otras similitudes. Por ejemplo, tenemos la mayoría, si no
todas, las leyes o principios de la Teoría de Sistemas que son válidos también
en sistemas complejos. Dada la aparente falta de comunicación entre los
teóricos de la complejidad y de sistemas esta serie de artículos se centrará en
esos solapamientos o terrenos comunes. Los primeros artículos van a revisar
algunos principios generales de sistemas en términos de la complejidad. La
fuente de las leyes y principios de la Teoría General de Sistemas serán tomados
únicamente de General Systems Theory:
Ideas and Applications, de Skyttner, texto que fue recientemente
republicado (Skyttner, 2001).
LA SEGUNDA LEY DE TERMODINAMICA
La Segunda Ley de Termodinámica es
probablemente una de las leyes científicas más importante en los tiempos
modernos. La 2da Ley fue formulada después de que los ingenieros del
siglo XIX se dieran cuenta que el calor no podía pasar de un cuerpo más frio a
otro más caliente por sí sólo. De acuerdo con el filósofo de la ciencia Thomas
Kuhn (1978:12), la 2da ley primero fue puesta en palabras por dos
científicos, Rudolph Clausius y William Thomson (Lord Kelvin), usando
diferentes ejemplos, en 1850-51. El físico Richard P. Feynman (Feynman, et al.,
1963: section 44-3), sin embargo, planteo que el físico francés Sadi Carnot
había descubierto La 2da Ley 25 años antes – o sea, inclusive antes
que La 1era Ley (conservación de la energía) ¡Fuese descubierta!
Dicha de forma simple La 2da
Ley dice que “En cualquier sistema cerrado la cantidad de orden nunca puede incrementar,
sólo decrementar con el tiempo.” Otra forma de decirlo es que la entropía
siempre incrementa. La razón por la cual esta ley es importante para ser
discutida en términos de la Teoría de la Complejidad, es porque sugiere que la
vida misma contradice esta ley. En términos más familiares – para los
complexologistas por lo menos-, el
fenómeno de auto-organización, en el que el orden supuestamente aparece del
desorden, va en contra de La 2da Ley completamente.
Hay varias razones por la cuales
esta afirmación es incorrecta. Primero, La 2da Ley es considerada en
sistemas cerrados y casi todos los sistemas de interés de los pensadores
complejos son abiertos; entonces, ¿Por qué esperamos que La 2da Ley se
aplique? Qué tal si consideramos el único sistema cerrado que conocemos: El
universo. Así sea verdad que la entropía
del universo siempre incrementa, esto no niega la posibilidad de que la
entropía local decremente. Para entender por qué este es el caso, debemos
entender primero la naturaleza de La 2da Ley (y todas las leyes
científicas para ese caso). La 2da Ley es una ley estadística. Esto
quiere decir que debería ser realmente leída como sigue: “En promedio, o en el todo, la entropía de los sistemas cerrados siempre
va a incrementar”. La medida del desorden, o entropía, es una medida
macroscópica y así mismo lo es el promedio sobre todo el sistema. Como tal se
pueden localizar regiones dentro del sistema mismo en las cuales el orden se
crea, o la entropía decrece, incluso cuando el promedio general crece. Otra
forma de decir esto es que las leyes de nivel micro se pueden contradecir a las de nivel macro y
no necesariamente invalidar estas últimas. La 2da Ley y el principio
de la auto-organización de los sistemas (el cual será tratado más adelante)
operan en diferentes contextos y tienen jurisdicciones diferentes.
A pesar de las deficiencias de
aplicar La 2da Ley a sistemas complejos, hay situaciones en las
cuales sigue siendo perfectamente válido. Subdominios, o subsistemas, pueden
surgir localmente dentro de sistemas complejos que son tan estables que, por un
periodo, se comportan como si estuvieran cerrados. Estos dominios están
críticamente organizados, y como tal que podrían evolucionar cualitativamente
con bastante rapidez. Sin embargo, durante los periodos estables es muy posible
que La 2da Ley sea válida, incluso si es sólo temporal y localmente.
LA LEY COMPLEMENTARIA
La ley complementaria (Weinberg,
1975), sugiere que dos perspectivas diferentes (o modelos) sobre un sistema van
a revelar verdades con respecto a ese sistema que o no son enteramente
independientes o enteramente compatibles. Más recientemente, esto ha sido
declarado así: Un sistema complejo es un sistema que tiene dos o más
descripciones que no se solapan (Cohen, 2002). Yo iré hasta incluir
“potencialmente contradictorias” sugiriendo que para los sistemas complejos
(por el cual realmente quiero decir cualquier parte de realidad que me interesa
examinar) existe una infinidad de descripciones igualmente validas, que no se
solapan, y que son potencialmente contradictorias. Maxwell (2000) en su
análisis sobre una nueva concepción de la ciencia afirma que:
“Cualquier teoría científica, por mejor que haya sido verificada
empíricamente, siempre tendrá una infinidad de teorías rivales que se acomodan igual
de bien a la evidencia disponible sólo que hacen predicciones diferentes, de
forma arbitraria, sobre fenómenos aun no observados.” (Maxwell, 2000).
En Richardson (2003) yo explore
exactamente esta línea de pensamiento en mi crítica sobre simulaciones en
computador “bottom-up”.
La Ley Complementaria también
sustenta llamados en la literatura de la complejidad para el filosófico/epistemológico/metodológico/teórico
pluralismo en el pensamiento complejo. Lo que es interesante aquí es cómo las
mismas (o al menos muy similares) leyes o principios han sido encontrados a
pesar de las diferentes rutas que se han tomado – un proceso que los teóricos
de sistemas llaman “equifinalidad”-. Esto es cierto para muchas de las leyes de
sistemas que se discutirán más adelante.
PRINCIPIO DE SISTEMA HOLISTICO
El Principio de Sistema Holístico
es probablemente el más conocido principio en ambas disciplinas, y es posiblemente
es único extensamente conocido por los de “afuera”. Este tiene sus raíces en el
tiempo de Aristóteles y, declarado de forma simple, dice que “el todo el mayor que la suma de sus partes”.
O más formalmente: “Un sistema tiene
propiedades holísticas no manifestadas por ninguna de sus partes y sus
interacciones. Las partes tienen propiedades no manifestadas por el sistema
como un todo” (Skyttner, 2001: 92). Este es uno de los aspectos más
interesantes de los sistemas complejos: El comportamiento del nivel micro puede
liderar el comportamiento del nivel macro, el cual no puede ser fácilmente (si
no es del todo) derivado del nivel micro del cual surge. En términos de
complejidad de lenguaje podemos re-etiquetar el principio de sistema holístico
como el principio de surgimiento vertical. (N.B. Sulis, en este asunto,
diferencia entre surgimiento vertical y horizontal).
Sin embargo, la frase: “el todo es
mejor que la suma de sus partes” resulta problemática. Para empezar con el uso
del término “mayor que” se entiende que hay una medida común para comparar el
todo y sus partes y que por esta medida el todo es mayor que la suma de sus partes.
Yo pienso que esto está errado. Una importante propiedad del todo es que no
puede ser reducida en sus partes (una reversa del principio de sistema
holístico), por ejemplo, los todos son cualitativamente diferentes de sus partes
(aparte de que pueden ser reconocidos como objetos coherentes) –Estos requieren
un lenguaje diferente para discutir de ellos. Entonces, en este mismo sentido,
los todos y las partes que lo componen son inmedibles–, no pueden ser significativamente
comparados, ¡Son diferentes! Obviamente, si los matemáticos encuentran una
forma de muestrear (sin ningún tipo de aproximación) de lo micro a lo macro – Un
paso que para muchos es imperceptible–, luego puede existir una medida en común
(conmensurable) que se pueda aplicar. Lo que realmente deberíamos decir es que “El todo es diferente de la suma de sus
partes y de sus intersecciones”.
El problema de la
conmensurabilidad es interesante y surge cada vez en pensamiento complejo. De
hecho, fue el foco de la reciente ISCE conferencia que tuvo lugar en Washington
(Septiembre 18-19, 2004). Una forma de hacer lo inconmensurable conmensurable
es abstraer o transformar los elementos inconmensurables de tal forma que se
permita su comparación. Siempre y cuando recordemos que son los elementos
transformados los que están siendo comparados y no los elementos como tal (como
las abstracciones o trasformaciones son procesos raramente conservativos) las
comparaciones pueden no ser útiles.
Un último asunto sobre el principio
de sistema holístico: La expresión “el todo es mayor que la suma de sus partes”
implica que, a pesar del problema de imperceptibilidad, este nos previene de
derivar todos a partir de las partes, en principio el todo surge de las partes (y
sus interacciones) y que, por ejemplo, las partes son suficiente para contar
por el todo incluso si no somos capaces de muestrearlo. En Richardson (2004) el
problema natural de reconocimiento de productos emergentes es una razón para
minar esta posibilidad. En el papel, se discute que el reconocimiento de todos
como todos es el resultado de aplicar algún filtro. Los filtros eliminan
información y por eso estos resultan siendo lo que queda después de que gran
parte de la realidad ha sido filtrada –Muy extrañamente, lo que queda después
del proceso de filtrado es lo que llamamos “realidad”-. Entonces, las moléculas
no surgen de los átomos, así como los átomos no son más que una representación
idealizada de ese nivel de realidad (El nivel es determinado después de aplicar
determinado filtro) y las idealizaciones no son suficientes para contar las
propiedades de la moléculas (que representan otra idealización). Una
implicación de esto es que existen químicos que no pueden explicar en términos
físicos – Esto alteraría la unificación del todo- el programa de las ciencias.
Sólo en abstracciones idealizadas podemos asumir que las partes cuentan
suficientemente en el todo.
PRINCIPIO DE OSCURIDAD
En el pensamiento complejo, el
Principio de Oscuridad es cubierto por el concepto de incomprensibilidad. El
Principio de Oscuridad dice que “ningún
sistema puede ser conocido por completo” (Skyttner, 2001: 93). El concepto
de incomprensibilidad sugiere que la mejor representación de un sistema
complejo es el sistema mismo y que cualquier otra representación que no sea el
sistema mismo necesariamente no representa algunos aspectos del sistema
original. Esta es una consecuencia
directa de la no linealidad inherente de los sistemas complejos. Excepto en algunas
circunstancias particulares la no linealidad es irreducible (Sin embargo
técnicas de linealización localizada, por ejemplo, que asumen linealidad
localmente, pueden ser útiles).
Hay otra fuente de “oscuridad” en
la Teoría de la Complejidad tal como lo dice Cilliers (1998: 4-5):
“Cada elemento en un sistema ignora el comportamiento del sistema
como un todo, este solo responde a la información que está disponible localmente.
Este punto es vitalmente importante. Si cada uno de los elementos “supiera” lo
que le está pasando al sistema como un todo, toda la complejidad puede ser
presentada en ese elemento.” (énfasis original).
Entonces, no hay manera de que un
elemento de un sistema complejo pueda conocerse por completo – siempre vamos a
estar a la sombra del todo-. Últimamente, es obvio que todos los sistemas
complejos son sistemas abiertos por definición y por eso es casi imposible
saber cómo el entorno del sistema puede afectar a el mismo –Nosotros
simplemente no podemos modelar ni el mundo, ni el universo-.
PRINCIPIO 80-20
El Principio 80-20 ha sido usado
en el pasado para justificar la eliminación de una gran parte de los recursos
de las organizaciones, principalmente su fuerza de trabajo. Según este
principio, en cualquier sistema complejo grande, el 80% de las salidas son
generadas por sólo el 20% del sistema. Recientes estudios en redes Booleanas,
una forma particular de sistemas complejos, ha mostrado que no todos los
miembros de la red contribuyen al funcionamiento de la misma como un todo. La
función de un red Booleana en particular está relacionada con la estructura en
su fase espacial, particularmente con el número de atrayentes en la fase
espacial. Por ejemplo, si una red Booleana es usada para representar una red
genética regulatoria en particular (como en el trabajo de Kauffman, 1993) luego
cada atrayente en la fase espacial supuestamente representa un tipo célula en
particular que está codificada en esa rede genética en particular. Se ha
descubierto que la clave para la estabilidad de estas redes es la emergencia de
los nodos estables, poer ejemplo,
nodos cuyo estado rápidamente se congela. Estos nodos, al igual que los otros
llamados nodos hoja (nodos que no tiene
como entrada otros nodos), no contribuyen en nada al comportamiento asintótico
(de largo plazo) de la red. Esto significa que sólo una parte de los nodos
dinámicos influyen en el comportamiento de largo plazo de la red. De hecho
podríamos eliminar estos nodos estables/congelados (y los nodos hoja) de la
descripción de la red sin afectar el número y de periodo de los atrayentes en
la fase espacial; así, la red en la Figura 1b es la versión reducida de la red
representada en la Figura 1. No voy a entrar aquí en detalles técnicos de cómo
se construye una Red Booleana, siéntase libre de contactarme si quiere tener
más detalles. Basta con decir, de una vez he definido la funcionalidad, que las
dos redes mostradas en la Figura 1 son funcionalmente equivalentes. Al parecer
no todos los nodos son relevantes. Pero, ¿Cuántos nodos son irrelevantes?
FIGURA 1 |
FIGURA 2 |
La Figura 2 muestra la frecuencia
de redes de diferentes tamaños ya reducidas. El experimento realizado consistía
en construir un gran número (100.000) de Redes Booleanas aleatorias con sólo 10
nodos, cada una con una regla aleatoria asociada (o función de transición), y 2
entradas aleatoriamente seleccionadas. Cada red fue luego reducida de tal forma
que la red resultante tuviera sólo nodos relevantes. Resultaron redes de
diferentes tamaños y su proporción sobre el número total de redes fue
cuantificado. Si tomamos el promedio de todas las redes encontramos que
típicamente sólo el 60% de todos los nodos son relevantes. Esto sugeriría el principio100-60 (ya que el 100% de la
funcionalidad depende del 60% de los nodos), pero debe tenerse en cuenta que
esta proporción no es fija para todos los tipos de redes – no es universal. Esto es cuantitativamente diferente a la
proporción de 80-20 pero implica que una gran parte de los nodos en promedio
son irrelevantes. ¿En qué contribuyen estos llamados nodos irrelevantes? ¿Podemos
realmente quitarlos sin ocasionar consecuencias perjudiciales? Un reciente
estudio de Bilke y Sjunnesson (2001) demostró que estos nodos supuestamente irrelevantes
de hecho tienen un rol importante.
Una de las características
importantes de las Redes Booleanas es su estabilidad intrínseca, por ejemplo,
si el estado de uno de sus nodos cambia o es perturbado es poco probable que la
trayectoria de la red sea llevada a un atrayente diferente. Bilke y Sjunnesson
(2001) mostraron que la razón de esto es la existencia de, lo que hemos llamado
hasta ahora, nodos irrelevantes. Estos nodos “congelados” forman un núcleo
estable a través del cual la señal perturbadora es disipada, y de esta manera
no tiene efecto en el largo plazo sobre el comportamiento dinámico la red. En
redes en las que todos los nodos congelados han sido removidos, y sólo se han
dejado los nodos relevantes, se encontró que eran muy inestables, de hecho –La
menor perturbación la empujaría a una cuenca diferente de atracción, por
ejemplo un pequeño empujón era suficiente para cambiar cualitativamente el
comportamiento de la red-. Como ejemplo, la estabilidad (o robustez) de la red en la Figura 1a es 0.689 mientras
que la estabilidad de su versión reducida es de 0.619 (N.B. La medida de
robustez es un promedio de probabilidad que indica las posibilidades de que el
sistema se mueva hacia una cuenca atrayente diferente si tan sólo uno de sus
nodos, escogido aleatoriamente, es perturbado un poquito. La medida se calcula
en un rango que va de 0 a 1 que sería lo más estable. La diferencia en robustez
para el ejemplo dado no es mayor cosa, pero esta diferencia tiende a crecer con
el tamaño de la red – hemos considerado redes de sólo 10 nodos).
Prigogine dijo que la auto-organización
requería un contenedor (organización auto-contenida). Los nodos estables
funcionan como el equivalente ambiental del contenedor, de hecho una de las
nociones de sistemas complejos que no se encuentra en la Teoría de Sistemas son
la realizaciones ambientales de señal débiles que podrían ser importantes.
Entonces parece que, así muchos
nodos no contribuyan al comportamiento particular de la red en el largo plazo,
estos nodos juegan un papel central cuando se tiene en cuenta la estabilidad de
la red. Cualquier equipo de administración que trate de remover el 80% de su
organización con la esperanza de obtener el 80% de sus utilidades anuales, se
dará cuenta que han creado un organización que no tiene ninguna protección
contra la más mínima de las perturbaciones del ambiente – Será literalmente
imposible tener un negocio estable-.
RESUMIENDO
Como mencioné en los párrafos de
apertura de este artículo, mi objetivo al escribir esta serie es de incentivar
un grado de conciencia acerca de las ideas generales de sistemas que no son
exhibidas en la literatura “oficial” de la complejidad. En cada entrega voy a
explorar algunas de las leyes y principios generales de la Teoría de Sistemas
en términos de la ciencia de la complejidad. Cuando esta tarea haya sido
completada podremos comenzar a desarrollar un claro entendimiento de las
profundas conexiones que hay entre la Teoría de Sistemas y la Teoría de la Complejidad
y luego hacer un esfuerzo concertado para construir más puentes entre las dos
comunidades que se complementan – Hay diferencias pero tampoco tantas como las
que uno creería-.
No hay comentarios:
Publicar un comentario