martes, 2 de octubre de 2012

PARCIAL I PENSAMIENTO SISTÉMICO - Mapa Mental

CLIP: MAPA MENTAL



Presentación del artículo, las ideas centrales desarrolladas y los conceptos que las estructuran, y las conclusiones.

PARCIAL I PENSAMIENTO SISTÉMICO - Resumen texto


RESUMEN DE LA LECTURA: TEORÍA DE SISTEMAS Y COMPLEJIDAD


En el presente texto, el autor, KURT A. RICHARDSON, tiene por objetivo escribir una serie de artículos para incentivar un grado de conciencia sobre las ideas generales de sistemas que no son exhibidas en la literatura oficial de la complejidad. Su motivación para hacerlo radica en hecho de haber observado que la gran mayoría de lo que se ha escrito sobre Teoría de la Complejidad parece haber ignorado la vasta literatura que existe sobre la Teoría de Sistemas.  Así, en cada entrega va a explorar algunas de las leyes y principios generales de la Teoría de Sistemas en términos de la ciencia de la complejidad. Cuando esta tarea haya sido completada – Agrega Richardson -, podremos comenzar a desarrollar un claro entendimiento sobre las profundas conexiones que hay entre la Teoría de Sistemas y la Teoría de la Complejidad y, finalmente, hacer un esfuerzo concertado para construir más puentes ente las dos comunidades que, en realidad, se complementan, a pesar de la creencia generalizada acerca de las supuestas marcadas diferencias entre ambas (que, actualmente, ni son tan marcadas ni tan numerosas como se creería).

¿OMISIÓN DELIBERADA O COMO RESULTADO DE LA IGNORANCIA?

Como mencionamos anteriormente, la motivación para escribir este informe por partes se debe al hecho de haber observado que la gran mayoría de lo que se ha escrito sobre la Teoría de la Complejidad parece haber ignorado arbitrariamente la vasta literatura que existe sobre Teoría de Sistemas. Ante esto, el autor sostiene que, en un principio, no estaba seguro si esta omisión había sido deliberada o simplemente había surgido como resultado de la ignorancia.

¿Por qué habría de tildarse de deliberada? Por cuestiones puramente estratégicas, motivadas por la necesidad política de diferenciar y promover un conjunto de temas específicos antes que otros; una situación que ha sido, desafortunadamente, manejada por un proceso de financiación reduccionista.

Por otro lado, se podría darle el beneficio de la duda y ver la situación desde un punto de vista menos maquiavélico. Al igual que Phelan (1999), cuando admitió que él estaba “un tanto sorprendido como desconcertado por haber encontrado tan extensa literatura (haciendo referencia a la teoría de sistemas) virtualmente desconocida en la literatura de la complejidad,” el autor toma un posición más ingenua y decide tratar de asumir lo mejor de la comunidad de la complejidad y sugerir que la razón por la cual la Teoría de Sistemas ha sido olvidada es la ignorancia; y espera que este, y subsiguientes, artículos familiaricen al pensador complejo con algunos aspectos de la Teoría de Sistemas, lo suficiente como para demostrar la necesidad legitima de prestar más atención a esta comunidad en particular y a la literatura asociada, para forjar una relación más abierta y colaborativa entre los teóricos de sistemas y de la complejidad.

¿REALMENTE SON TAN DIFERENTES?

El autor sostiene que, sin duda alguna, existen diferencias entre las dos comunidades, algunas de las cuales han sido ya analizadas por Phelan (1999). Sin embargo, en la actualidad no son ni tantas ni tan marcadas las diferencias entre ambas comunidades. Seis años después del artículo de Phelan, el autor encontró que algunas de las diferencias que Phelan propuso se habrían disuelto en algo, si no enteramente.

Por ejemplo, Phelan propuso que la Teoría de Sistemas estaba más preocupada por “la solución del problema” o el análisis confirmatorio y que tenía una crítica inclinación interpretativa hacia ésta, mientras que la Teoría de la Complejidad se enfocaba en lo exploratorio y en lo positivista. Sin embargo, considerando la difusión que ha tenido en la literatura científica sobre administración el tema relacionado con la complejidad en la gestión organizacional, el autor se atreve a argumentar que la comunidad de la complejidad como un todo está más inclinada hacia un análisis confirmatorio que lo que pudo haber estado en 1999.

¿A qué se debe este, entonces, este cambio? El autor cree que parte de la valoración que hace Phelan sobre Teoría de la Complejidad diciendo que es positivista viene dado por su caracterización de la complejidad como una preocupación por el modelado basado en agentes. De nuevo, esto pudo haber sido cierto en 1999, pero el cree que esta valoración es un poco forzada para el 2005. Veamos por ejemplo a Cilliers (1998) y Richardson (2004) con puntos de vista sobre la complejidad que exploran los límites de un enfoque que sólo tiene en cuenta la mirada positivista de la complejidad. También, haciendo referencia a la introducción que hace Goldstein en “Why complexity and epistemology?” nos brinda razones para justificar por qué una caracterización puramente positivista de la teoría de la complejidad ya no es apropiada. Es cierto que todavía es válido sugerir que hay diferencias filosóficas y metodológicas entre los que apoyan las Teorías de Sistemas y de la Complejidad, sin embargo, si uno tiene una mirada lo suficientemente crítica, existe suficiente diversidad entre estas 2 corrientes para limitarse a la caracterización simplista que se hizo en primer lugar.

ENTONCES, ¿HABRÁN SIMILITUDES SIGNIFICATIVAS?

Evidentemente, aún quedan algunas diferencias entre la Teoría de Sistemas y la Teoría de la Complejidad, pero tampoco se puede desconocer el hecho de la existencia de muchas otras similitudes.

Por ejemplo, la mayoría, si no todas, las leyes o principios de la teoría son válidos para sistemas complejos. Dada la aparente falta de comunicación entre los teóricos de la complejidad y de sistemas esta serie de artículos se centrará en los solapamientos o características transversales a ambos.

Los primeros artículos, como es el caso del presente texto, van a revisar algunos principios generales de sistemas en términos de la complejidad. La fuente de las leyes y principios de la teoría general de sistemas fueron tomados únicamente de General Systems Theory: Ideas and Applications, de Skyttner (Skyttner, 2001). Veamos, a continuación, las ideas centrales que se plantean en el texto alrededor de estas leyes o principios comunes a ambas teorías.

LA SEGUNDA LEY DE TERMODINAMICA

La Segunda Ley de Termodinámica es probablemente una de las leyes científica más importante en los tiempos modernos. La 2da ley fue formulada después de que los ingenieros del siglo XIX se dieron cuenta que el calor no podía pasar de un cuerpo más frio a otro más caliente por sí sólo. Dicha de forma simple la 2da ley dice que en cualquier sistema cerrado la cantidad de orden nunca puede incrementar, sólo decrementar con el tiempo. Otra forma de decirlo es que la entropía siempre incrementa. La razón por la cual esta ley es importante para ser discutida en términos de la Teoría de la Complejidad, es porque sugiere que la vida misma contradice esta ley. En términos más familiares –para los complexologistas, por lo menos-  el fenómeno de auto-organización, en el que el orden supuestamente aparece del desorden, contradice la 2da Ley completamente.

Hay varias razones por la cuales esta afirmación es incorrecta. Primero, la 2da ley es aplica en sistemas cerrados y casi todos los sistemas de interés de los pensadores complejos son abiertos; entonces, ¿Por qué esperamos que la 2da Ley se evidencie en este caso? Qué tal si consideramos el único sistema cerrado que conocemos: El universo.  Así sea verdad que la entropía del universo siempre incrementa, esto no niega la posibilidad que la entropía local decremente. De hecho, la 2da ley es una ley estadística. Esto quiere decir que debería ser realmente leído que en promedio, o en el todo, la entropía de los sistemas cerrados siempre va a incrementar. La medida del desorden, o entropía, es una medida macroscópica y así mismo lo es el promedio sobre todo el sistema. Como tal se pueden localizar regiones dentro del sistema mismo en las cuales el orden se crea, o la entropía decrece, incluso cuando el promedio general crece. Otra forma de decir esto es que las leyes de nivel micro pueden contradecir a las de nivel macro y no necesariamente invalidar estas últimas.

A pesar de las deficiencias de aplicar la 2da Ley a sistemas complejos, hay situaciones en las cuales sigue siendo perfectamente válido. Subdominios, o subsistemas, pueden surgir localmente dentro de sistemas complejos que son tan estables que, por un periodo, se comportan como si estuvieran cerrados. Estos dominios están críticamente organizados, y como tal que podría evolucionar cualitativamente con bastante rapidez. Sin embargo, durante los periodos estables es muy posible que la 2da Ley sea válida, incluso si es sólo temporalmente y localmente.

LA LEY COMPLEMENTARIA

La Ley Complementaria (Weinberg, 1975) sugiere que dos o más perspectivas diferentes (o modelos) sobre un sistema van a revelar verdades con respecto a ese sistema que o no son enteramente independientes o enteramente compatibles. Es decir, que para los sistemas complejos puede existir una infinidad de descripciones igualmente validas, que no se solapan, y pueden ser potencialmente contradictorias. Esto es lo que se evidencia en la ley previamente expuesta, en la cual leyes de nivel micro pueden contradecir a las de nivel macro y no necesariamente invalidar estas últimas.

Maxwell (2000) en su análisis sobre una nueva concepción de la ciencia afirma que: “Cualquier teoría científica, por más bien que haya sido verificada empíricamente, siempre tendrá infinitamente muchas teorías rivales que se acomodan igual de bien a la evidencia disponible sólo que hacen predicciones diferentes, de forma arbitraria, sobre fenómenos aun no observados.” (Maxwell, 2000).

Lo que es interesante aquí es como las mismas (o al menos muy similares) leyes o principios han sido encontrados a pesar de las diferentes rutas que se han tomado – un proceso que los teóricos de sistemas llaman “equifinalidad. Esto es cierto para muchas de las leyes de sistemas que se discutirán más adelante.

PRINCIPIO DE SISTEMA HOLISTICO

El principio de sistema holístico es probablemente el más conocido principio en ambas disciplinas, y es posiblemente es único extensamente conocido por los de “afuera”. Éste tiene sus raíces en el tiempo de Aristóteles y declarado de forma simple dice que “el todo supera la suma de sus partes”. Más formalmente: “un sistema tiene propiedades holísticas no manifestadas por ninguna de sus partes y sus interacciones. Las partes tienen propiedades no manifestadas por el sistema como un todo” (Skyttner, 2001: 92). Este es uno de los aspectos más interesantes de los sistemas complejos: el comportamiento del nivel micro puede liderar el comportamiento del nivel macro que no puede ser fácilmente (si no es del todo) derivado del nivel micro del cual surge.

Sin embargo, la frase: “el todo es mejor que la suma de sus partes” puede llegar a ser problemática. Para empezar con el uso del término “mayor que” se entiende que hay una medida común para comparar el todo y sus partes y que por esta medida el todo es mayor que la suma de sus partes. El autor piensa que esto está mal. Una importante propiedad del todo es que no puede ser reducida en sus partes y por tal razón requieren un lenguaje diferente para ser analizados. Entonces, en este mismo sentido, los todos y las partes que lo componen son inmedibles y por tanto no pueden ser significativamente comparados. Lo ideal, para compararlos, sería encontrar una medida en común (conmensurable) que se pueda aplicar. Lo que realmente deberíamos decir es que “el todo es diferente de la suma de sus partes y de sus interacciones”.

El problema de la conmensurabilidad es interesante y surge cada vez en pensamiento complejo. Una forma de hacer lo inconmensurable conmensurable es transformar los elementos inconmensurables de tal forma que se permita su comparación. Siempre y cuando recordemos que son los elementos transformados son los que están siendo comparados y no los elementos como tal, pues de lo contrario las comparaciones pueden no ser útiles.

PRINCIPIO DE OSCURIDAD

En el Pensamiento Complejo, el Principio de Oscuridad es cubierto por el concepto de incomprensibilidad. El Principio de Oscuridad dice que “ningún sistema puede ser conocido por completo” (Skyttner, 2001: 93). Primero, tenemos que el concepto de incomprensibilidad sugiere que la mejor representación de un sistema complejo es el sistema mismo y que cualquier otra representación que no sea el sistema mismo necesariamente no representa algunos aspectos del sistema original.

Segundo, hay otra fuente de “oscuridad” en la teoría de la complejidad tal como lo dice Cilliers (1998: 4-5): “Cada elemento en un sistema ignora el comportamiento del sistema como un todo, éste solo responde a la información que está disponible localmente. Este punto es vitalmente importante. Si cada uno de los elementos “supiera” lo que le está pasando al sistema como un todo, toda la complejidad puede ser presentada en ese elemento.”

Entonces, no hay manera de que un elemento de un sistema complejo pueda conocerlo por completo – siempre vamos a estar a la sombra del todo-. De hecho, como todos los sistemas complejos son sistemas abiertos por definición, es casi imposible saber cómo el entorno del sistema puede afectar al mismo.

PRINCIPIO 80-20

El principio 80-20 ha sido usado en el pasado para justificar la eliminación de una gran parte de los recursos de las organizaciones, principalmente su fuerza de trabajo. Según este principio, en cualquier sistema complejo grande, el 80% de las salidas son generadas por sólo el 20% del sistema.

En línea con este principio, el autor expone los resultados sobre unos estudios en redes Booleanas, una forma particular de sistemas complejos, han mostrado que no todos los miembros de la red contribuyen al funcionamiento de la misma como un todo. Se ha descubierto que la clave para la estabilidad de estas redes es la emergencia de los nodos estables, i.e., nodos cuyo estado rápidamente se congela. Estos nodos, al igual que los otros llamados nodos hoja (nodos que no tiene como entrada otros nodos), no contribuyen en nada al comportamiento asintótico (de largo plazo) de la red. Esto significa que sólo una parte de los nodos dinámicos influyen en el comportamiento de largo plazo de la red. De hecho podríamos eliminar estos nodos estables/congelados (y los nodos hoja) de la descripción de la red su funcionamiento, originándose 2 redes – Una con todos los nodos y otra solo con los relevantes- funcionalmente equivalentes. Esto implicaría que una gran parte de los nodos en promedio son irrelevantes. ¿En qué contribuyen estos llamados nodos irrelevantes? ¿Podemos realmente quitarlos sin ocasionar consecuencias perjudiciales? Un reciente estudio de Bilke y Sjunnesson (2001) mostró que estos nodos supuestamente irrelevantes de hecho tiene un rol importante.

Una de las características importantes de las redes Booleanas es su estabilidad intrínseca, pero en redes en las que todos los nodos congelados han sido removidos, y sólo se han dejado los nodos relevantes, se encontró que eran muy inestables. Entonces parece que, así muchos nodos no contribuyan al comportamiento particular de la red en el largo plazo, estos nodos juegan un papel central cuando se tiene en cuenta la estabilidad de la red. Así, cualquier equipo de administración que trate de remover el 80% de su organización con la esperanza de obtener el 80% de sus utilidades anuales, se dará cuenta que han creado un organización que no tiene ninguna protección contra la más mínima de las perturbaciones del ambiente – será literalmente imposible tener un negocio estable.

CONCLUSIONES

Es un tanto sorprendente como desconcertado el hecho de haber encontrado tan extensa literatura acerca de la Teoría de Sistemas que, por lo menos hasta entonces, no había sido reconocida en la literatura de la complejidad. De hecho, la gran mayoría de lo que se había escrito sobre la Teoría de la Complejidad parecía haber ignorado arbitrariamente la vasta literatura que existe sobre Teoría de Sistemas. Y es que a pesar de que podría existir la posibilidad de que tal desconocimiento fuese algo deliberado (motivado por la necesidad política de diferenciar y promover un conjunto de temas específicos antes que otros; una situación que ha sido, desafortunadamente, manejada por un proceso de financiación reduccionista), es preferible asumir que surge como un mero resultado de ignorancia.

Y es que la creencia generalizada acerca de unas diferencias tanto numerosas como marcadas entre ambas comunidades, en la actualidad ha sido descartada. Sin duda alguna, existen diferencias entre las dos comunidades. Sin embargo, en la actualidad, no son ni tantas ni tan marcadas las diferencias entre ambas comunidades. De hecho, algunas de las diferencias que se habían propuesto años atrás hoy en día se habrían disuelto en algo, si no enteramente. Por ejemplo, Phelan (1999) propuso que la Teoría de Sistemas estaba más preocupada por “la solución del problema” o el análisis confirmatorio, mientras que la Teoría de la Complejidad se enfocaba en lo exploratorio y en lo positivista. Sin embargo, son diversos los argumentos que prueban que la comunidad de la complejidad está más inclinada hacia un análisis confirmatorio que lo que pudo haber estado en 1999 y que se debe tener una mirada lo suficientemente crítica para no limitarse a la caracterización simplista que se hizo en primer lugar.

Por último, a pesar de que pueda ser evidente el hecho de que aún quedan algunas diferencias entre la Teoría de Sistemas y la Teoría de Complejidad, también hay que considerar la existencia de muchas otras similitudes. Por ejemplo, la mayoría, si no todas, las leyes o principios de la Teoría de Sistemas son válidos para sistemas complejos. En el caso de este artículo, se exponen los siguientes Leyes/Principios  que, además de ser transversales a ambas comunidades, unas actúan como reforzadoras de las otras: La 2ª Ley de la Termodinámica, la Ley Complementaria, el Principio del Sistema Holístico, el Principio de Oscuridad y el Principio 80 - 20. Total, tenemos en este punto lo suficiente como para demostrar la necesidad legitima de prestar más atención a esta comunidad en particular y a la literatura asociada, para forjar una relación más abierta y colaborativa entre los teóricos de sistemas y de la complejidad.

PARCIAL 1 PENSAMIENTO SISTÉMICO - Traducción texto


TEORÍA DE SISTEMAS Y COMPLEJIDAD: PARTE 1

KURT A. RICHARDSON
ISCE Research, US

La motivación para esta escribir esta serie por partes se debe al hecho de haber observado que la gran mayoría de lo que se ha escrito sobre la Teoría de la Complejidad parece haber ignorado arbitrariamiente la vasta literatura que existe sobre Teoría de Sistemas. No sé si esta omisión es deliberada (Por ejemplo, motivada por la necesidad política de diferenciar y promover un conjunto de temas antes que otros; una situación desafortunadamente manejada por un proceso de financiación reduccionista) o simplemente como resultado de la ignorancia. De hecho, Phelan (1999) admitió que él estaba “un tanto sorprendido como desconcertado por haber encontrado tan extensa literatura (haciendo referencia a la teoría de sistemas) virtualmente desconocida en la literatura de la complejidad.” Yo voy a tratar de asumir lo mejor de la comunidad de la complejidad y sugeriré que la razón por la cual la Teoría de Sistemas ha sido olvidada es la ignorancia, y espero que este, y subsiguientes, artículos van a familiarizar al pensador complejo con algunos aspectos de la Teoría de Sistemas; lo suficiente como para demostrar la necesidad legitima para prestar más atención a esta comunidad en particular y a la literatura asociada. El próximo 11th Annual ANZSYS Conference/Managing the Complex V Systems Thinking and Complexity Science: Insights for Action (Dicha convocatoria que se puede encontrar en la sección "Event Notices" de este número) es un intento deliberado de forjar una relación más abierta y colaborativa entre los teóricos de sistemas y de la complejidad.

Sin duda existen diferencias entre las dos comunidades, algunas de estas son analizadas por Phelan (1999). Seis años después del artículo de Phelan, encontré que algunas de las diferencias que él discutía se han disuelto en algo, si no enteramente. Por ejemplo, él propuso que la Teoría de Sistemas está más preocupada con “la solución del problema” o el análisis confirmatorio y tiene una crítica inclinación interpretativa hacia ésta, mientras que la Teoría de la Complejidad se enfoca en lo exploratorio y en lo positivista. Dada la difusión que ha tenido hoy en la literatura científica sobre administración el tema relacionado con la complejidad en la gestión organizacional, me atrevo a argumentar que la comunidad de la complejidad está más inclinada hacia un análisis confirmatorio que lo que pudo haber estado en 1999. Yo creo que parte de la valoración que hace Phelan sobre Teoría de la Complejidad diciendo que es positivista viene dado por su caracterización de la complejidad como una preocupación por el modelado basado en agentes. De nuevo, esto pudo haber sido cierto en 1999, pero yo creo que esta valoración es un poco forzada para 2005. Veamos por ejemplo a Cilliers (1998) y Richardson (2004) con puntos de vista sobre la complejidad que exploran los límites de un enfoque que sólo tiene en cuenta la mirada positivista de la complejidad. También, haciendo referencia a la introducción que hace Goldstein en Why complexity and epistemology? tenemos razones para justificar por qué una caracterización puramente positivista de la Teoría de la Complejidad ya no es apropiada. Yo creo que todavía es válido sugerir que hay diferencias filosóficas y metodológicas entre los que apoyan las teorías de sistemas y de la complejidad, sin embargo, si uno tiene una mirada lo suficientemente crítica existe mucha diversidad entre estas dos corrientes como para limitarse a la caracterización simplista que se hizo en primer lugar.

Evidentemente aún quedan diferencias entre la Teoría de Sistemas y la Teoría de Complejidad, pero también hay muchas otras similitudes. Por ejemplo, tenemos la mayoría, si no todas, las leyes o principios de la Teoría de Sistemas que son válidos también en sistemas complejos. Dada la aparente falta de comunicación entre los teóricos de la complejidad y de sistemas esta serie de artículos se centrará en esos solapamientos o terrenos comunes. Los primeros artículos van a revisar algunos principios generales de sistemas en términos de la complejidad. La fuente de las leyes y principios de la Teoría General de Sistemas serán tomados únicamente de General Systems Theory: Ideas and Applications, de Skyttner, texto que fue recientemente republicado (Skyttner, 2001).

LA SEGUNDA LEY DE TERMODINAMICA

La Segunda Ley de Termodinámica es probablemente una de las leyes científicas más importante en los tiempos modernos. La 2da Ley fue formulada después de que los ingenieros del siglo XIX se dieran cuenta que el calor no podía pasar de un cuerpo más frio a otro más caliente por sí sólo. De acuerdo con el filósofo de la ciencia Thomas Kuhn (1978:12), la 2da ley primero fue puesta en palabras por dos científicos, Rudolph Clausius y William Thomson (Lord Kelvin), usando diferentes ejemplos, en 1850-51. El físico Richard P. Feynman (Feynman, et al., 1963: section 44-3), sin embargo, planteo que el físico francés Sadi Carnot había descubierto La 2da Ley 25 años antes – o sea, inclusive antes que La 1era Ley (conservación de la energía) ¡Fuese descubierta!

Dicha de forma simple La 2da Ley dice que “En cualquier sistema cerrado la cantidad de orden nunca puede incrementar, sólo decrementar con el tiempo.” Otra forma de decirlo es que la entropía siempre incrementa. La razón por la cual esta ley es importante para ser discutida en términos de la Teoría de la Complejidad, es porque sugiere que la vida misma contradice esta ley. En términos más familiares – para los complexologistas por lo menos-,  el fenómeno de auto-organización, en el que el orden supuestamente aparece del desorden, va en contra de La 2da Ley completamente.

Hay varias razones por la cuales esta afirmación es incorrecta. Primero, La 2da Ley es considerada en sistemas cerrados y casi todos los sistemas de interés de los pensadores complejos son abiertos; entonces, ¿Por qué esperamos que La 2da Ley se aplique? Qué tal si consideramos el único sistema cerrado que conocemos: El universo.  Así sea verdad que la entropía del universo siempre incrementa, esto no niega la posibilidad de que la entropía local decremente. Para entender por qué este es el caso, debemos entender primero la naturaleza de La 2da Ley (y todas las leyes científicas para ese caso). La 2da Ley es una ley estadística. Esto quiere decir que debería ser realmente leída como sigue: “En promedio, o en el todo, la entropía de los sistemas cerrados siempre va a incrementar”. La medida del desorden, o entropía, es una medida macroscópica y así mismo lo es el promedio sobre todo el sistema. Como tal se pueden localizar regiones dentro del sistema mismo en las cuales el orden se crea, o la entropía decrece, incluso cuando el promedio general crece. Otra forma de decir esto es que las leyes de nivel micro  se pueden contradecir a las de nivel macro y no necesariamente invalidar estas últimas. La 2da Ley y el principio de la auto-organización de los sistemas (el cual será tratado más adelante) operan en diferentes contextos y tienen jurisdicciones diferentes.

A pesar de las deficiencias de aplicar La 2da Ley a sistemas complejos, hay situaciones en las cuales sigue siendo perfectamente válido. Subdominios, o subsistemas, pueden surgir localmente dentro de sistemas complejos que son tan estables que, por un periodo, se comportan como si estuvieran cerrados. Estos dominios están críticamente organizados, y como tal que podrían evolucionar cualitativamente con bastante rapidez. Sin embargo, durante los periodos estables es muy posible que La 2da Ley sea válida, incluso si es sólo temporal y localmente.

LA LEY COMPLEMENTARIA

La ley complementaria (Weinberg, 1975), sugiere que dos perspectivas diferentes (o modelos) sobre un sistema van a revelar verdades con respecto a ese sistema que o no son enteramente independientes o enteramente compatibles. Más recientemente, esto ha sido declarado así: Un sistema complejo es un sistema que tiene dos o más descripciones que no se solapan (Cohen, 2002). Yo iré hasta incluir “potencialmente contradictorias” sugiriendo que para los sistemas complejos (por el cual realmente quiero decir cualquier parte de realidad que me interesa examinar) existe una infinidad de descripciones igualmente validas, que no se solapan, y que son potencialmente contradictorias. Maxwell (2000) en su análisis sobre una nueva concepción de la ciencia afirma que:

“Cualquier teoría científica, por mejor que haya sido verificada empíricamente, siempre tendrá una infinidad de teorías rivales que se acomodan igual de bien a la evidencia disponible sólo que hacen predicciones diferentes, de forma arbitraria, sobre fenómenos aun no observados.” (Maxwell, 2000).

En Richardson (2003) yo explore exactamente esta línea de pensamiento en mi crítica sobre simulaciones en computador “bottom-up”.

La Ley Complementaria también sustenta llamados en la literatura de la complejidad para el filosófico/epistemológico/metodológico/teórico pluralismo en el pensamiento complejo. Lo que es interesante aquí es cómo las mismas (o al menos muy similares) leyes o principios han sido encontrados a pesar de las diferentes rutas que se han tomado – un proceso que los teóricos de sistemas llaman “equifinalidad”-. Esto es cierto para muchas de las leyes de sistemas que se discutirán más adelante.

PRINCIPIO DE SISTEMA HOLISTICO

El Principio de Sistema Holístico es probablemente el más conocido principio en ambas disciplinas, y es posiblemente es único extensamente conocido por los de “afuera”. Este tiene sus raíces en el tiempo de Aristóteles y, declarado de forma simple, dice que “el todo el mayor que la suma de sus partes”. O más formalmente: “Un sistema tiene propiedades holísticas no manifestadas por ninguna de sus partes y sus interacciones. Las partes tienen propiedades no manifestadas por el sistema como un todo” (Skyttner, 2001: 92). Este es uno de los aspectos más interesantes de los sistemas complejos: El comportamiento del nivel micro puede liderar el comportamiento del nivel macro, el cual no puede ser fácilmente (si no es del todo) derivado del nivel micro del cual surge. En términos de complejidad de lenguaje podemos re-etiquetar el principio de sistema holístico como el principio de surgimiento vertical. (N.B. Sulis, en este asunto, diferencia entre surgimiento vertical y horizontal).

Sin embargo, la frase: “el todo es mejor que la suma de sus partes” resulta problemática. Para empezar con el uso del término “mayor que” se entiende que hay una medida común para comparar el todo y sus partes y que por esta medida el todo es mayor que la suma de sus partes. Yo pienso que esto está errado. Una importante propiedad del todo es que no puede ser reducida en sus partes (una reversa del principio de sistema holístico), por ejemplo, los todos son cualitativamente diferentes de sus partes (aparte de que pueden ser reconocidos como objetos coherentes) –Estos requieren un lenguaje diferente para discutir de ellos. Entonces, en este mismo sentido, los todos y las partes que lo componen son inmedibles–, no pueden ser significativamente comparados, ¡Son diferentes! Obviamente, si los matemáticos encuentran una forma de muestrear (sin ningún tipo de aproximación) de lo micro a lo macro – Un paso que para muchos es imperceptible–, luego puede existir una medida en común (conmensurable) que se pueda aplicar. Lo que realmente deberíamos decir es que “El todo es diferente de la suma de sus partes y de sus intersecciones”.

El problema de la conmensurabilidad es interesante y surge cada vez en pensamiento complejo. De hecho, fue el foco de la reciente ISCE conferencia que tuvo lugar en Washington (Septiembre 18-19, 2004). Una forma de hacer lo inconmensurable conmensurable es abstraer o transformar los elementos inconmensurables de tal forma que se permita su comparación. Siempre y cuando recordemos que son los elementos transformados los que están siendo comparados y no los elementos como tal (como las abstracciones o trasformaciones son procesos raramente conservativos) las comparaciones pueden no ser útiles.

Un último asunto sobre el principio de sistema holístico: La expresión “el todo es mayor que la suma de sus partes” implica que, a pesar del problema de imperceptibilidad, este nos previene de derivar todos a partir de las partes, en principio el todo surge de las partes (y sus interacciones) y que, por ejemplo, las partes son suficiente para contar por el todo incluso si no somos capaces de muestrearlo. En Richardson (2004) el problema natural de reconocimiento de productos emergentes es una razón para minar esta posibilidad. En el papel, se discute que el reconocimiento de todos como todos es el resultado de aplicar algún filtro. Los filtros eliminan información y por eso estos resultan siendo lo que queda después de que gran parte de la realidad ha sido filtrada –Muy extrañamente, lo que queda después del proceso de filtrado es lo que llamamos “realidad”-. Entonces, las moléculas no surgen de los átomos, así como los átomos no son más que una representación idealizada de ese nivel de realidad (El nivel es determinado después de aplicar determinado filtro) y las idealizaciones no son suficientes para contar las propiedades de la moléculas (que representan otra idealización). Una implicación de esto es que existen químicos que no pueden explicar en términos físicos – Esto alteraría la unificación del todo- el programa de las ciencias. Sólo en abstracciones idealizadas podemos asumir que las partes cuentan suficientemente en el todo.

PRINCIPIO DE OSCURIDAD

En el pensamiento complejo, el Principio de Oscuridad es cubierto por el concepto de incomprensibilidad. El Principio de Oscuridad dice que “ningún sistema puede ser conocido por completo” (Skyttner, 2001: 93). El concepto de incomprensibilidad sugiere que la mejor representación de un sistema complejo es el sistema mismo y que cualquier otra representación que no sea el sistema mismo necesariamente no representa algunos aspectos del sistema original.  Esta es una consecuencia directa de la no linealidad inherente de los sistemas complejos. Excepto en algunas circunstancias particulares la no linealidad es irreducible (Sin embargo técnicas de linealización localizada, por ejemplo, que asumen linealidad localmente, pueden ser útiles).

Hay otra fuente de “oscuridad” en la Teoría de la Complejidad tal como lo dice Cilliers (1998: 4-5):

“Cada elemento en un sistema ignora el comportamiento del sistema como un todo, este solo responde a la información que está disponible localmente. Este punto es vitalmente importante. Si cada uno de los elementos “supiera” lo que le está pasando al sistema como un todo, toda la complejidad puede ser presentada en ese elemento.” (énfasis original).

Entonces, no hay manera de que un elemento de un sistema complejo pueda conocerse por completo – siempre vamos a estar a la sombra del todo-. Últimamente, es obvio que todos los sistemas complejos son sistemas abiertos por definición y por eso es casi imposible saber cómo el entorno del sistema puede afectar a el mismo –Nosotros simplemente no podemos modelar ni el mundo, ni el universo-.

PRINCIPIO 80-20

El Principio 80-20 ha sido usado en el pasado para justificar la eliminación de una gran parte de los recursos de las organizaciones, principalmente su fuerza de trabajo. Según este principio, en cualquier sistema complejo grande, el 80% de las salidas son generadas por sólo el 20% del sistema. Recientes estudios en redes Booleanas, una forma particular de sistemas complejos, ha mostrado que no todos los miembros de la red contribuyen al funcionamiento de la misma como un todo. La función de un red Booleana en particular está relacionada con la estructura en su fase espacial, particularmente con el número de atrayentes en la fase espacial. Por ejemplo, si una red Booleana es usada para representar una red genética regulatoria en particular (como en el trabajo de Kauffman, 1993) luego cada atrayente en la fase espacial supuestamente representa un tipo célula en particular que está codificada en esa rede genética en particular. Se ha descubierto que la clave para la estabilidad de estas redes es la emergencia de los nodos estables, poer ejemplo, nodos cuyo estado rápidamente se congela. Estos nodos, al igual que los otros llamados nodos hoja (nodos que no tiene como entrada otros nodos), no contribuyen en nada al comportamiento asintótico (de largo plazo) de la red. Esto significa que sólo una parte de los nodos dinámicos influyen en el comportamiento de largo plazo de la red. De hecho podríamos eliminar estos nodos estables/congelados (y los nodos hoja) de la descripción de la red sin afectar el número y de periodo de los atrayentes en la fase espacial; así, la red en la Figura 1b es la versión reducida de la red representada en la Figura 1. No voy a entrar aquí en detalles técnicos de cómo se construye una Red Booleana, siéntase libre de contactarme si quiere tener más detalles. Basta con decir, de una vez he definido la funcionalidad, que las dos redes mostradas en la Figura 1 son funcionalmente equivalentes. Al parecer no todos los nodos son relevantes. Pero, ¿Cuántos nodos son irrelevantes?
FIGURA 1

FIGURA 2
La Figura 2 muestra la frecuencia de redes de diferentes tamaños ya reducidas. El experimento realizado consistía en construir un gran número (100.000) de Redes Booleanas aleatorias con sólo 10 nodos, cada una con una regla aleatoria asociada (o función de transición), y 2 entradas aleatoriamente seleccionadas. Cada red fue luego reducida de tal forma que la red resultante tuviera sólo nodos relevantes. Resultaron redes de diferentes tamaños y su proporción sobre el número total de redes fue cuantificado. Si tomamos el promedio de todas las redes encontramos que típicamente sólo el 60% de todos los nodos son relevantes. Esto sugeriría el principio100-60 (ya que el 100% de la funcionalidad depende del 60% de los nodos), pero debe tenerse en cuenta que esta proporción no es fija para todos los tipos de redes – no es universal.   Esto es cuantitativamente diferente a la proporción de 80-20 pero implica que una gran parte de los nodos en promedio son irrelevantes. ¿En qué contribuyen estos llamados nodos irrelevantes? ¿Podemos realmente quitarlos sin ocasionar consecuencias perjudiciales? Un reciente estudio de Bilke y Sjunnesson (2001) demostró que estos nodos supuestamente irrelevantes de hecho tienen un rol importante.

Una de las características importantes de las Redes Booleanas es su estabilidad intrínseca, por ejemplo, si el estado de uno de sus nodos cambia o es perturbado es poco probable que la trayectoria de la red sea llevada a un atrayente diferente. Bilke y Sjunnesson (2001) mostraron que la razón de esto es la existencia de, lo que hemos llamado hasta ahora, nodos irrelevantes. Estos nodos “congelados” forman un núcleo estable a través del cual la señal perturbadora es disipada, y de esta manera no tiene efecto en el largo plazo sobre el comportamiento dinámico la red. En redes en las que todos los nodos congelados han sido removidos, y sólo se han dejado los nodos relevantes, se encontró que eran muy inestables, de hecho –La menor perturbación la empujaría a una cuenca diferente de atracción, por ejemplo un pequeño empujón era suficiente para cambiar cualitativamente el comportamiento de la red-. Como ejemplo, la estabilidad (o robustez)  de la red en la Figura 1a es 0.689 mientras que la estabilidad de su versión reducida es de 0.619 (N.B. La medida de robustez es un promedio de probabilidad que indica las posibilidades de que el sistema se mueva hacia una cuenca atrayente diferente si tan sólo uno de sus nodos, escogido aleatoriamente, es perturbado un poquito. La medida se calcula en un rango que va de 0 a 1 que sería lo más estable. La diferencia en robustez para el ejemplo dado no es mayor cosa, pero esta diferencia tiende a crecer con el tamaño de la red – hemos considerado redes de sólo 10 nodos).

Prigogine dijo que la auto-organización requería un contenedor (organización auto-contenida). Los nodos estables funcionan como el equivalente ambiental del contenedor, de hecho una de las nociones de sistemas complejos que no se encuentra en la Teoría de Sistemas son la realizaciones ambientales de señal débiles que podrían ser importantes.

Entonces parece que, así muchos nodos no contribuyan al comportamiento particular de la red en el largo plazo, estos nodos juegan un papel central cuando se tiene en cuenta la estabilidad de la red. Cualquier equipo de administración que trate de remover el 80% de su organización con la esperanza de obtener el 80% de sus utilidades anuales, se dará cuenta que han creado un organización que no tiene ninguna protección contra la más mínima de las perturbaciones del ambiente – Será literalmente imposible tener un negocio estable-.

RESUMIENDO

Como mencioné en los párrafos de apertura de este artículo, mi objetivo al escribir esta serie es de incentivar un grado de conciencia acerca de las ideas generales de sistemas que no son exhibidas en la literatura “oficial” de la complejidad. En cada entrega voy a explorar algunas de las leyes y principios generales de la Teoría de Sistemas en términos de la ciencia de la complejidad. Cuando esta tarea haya sido completada podremos comenzar a desarrollar un claro entendimiento de las profundas conexiones que hay entre la Teoría de Sistemas y la Teoría de la Complejidad y luego hacer un esfuerzo concertado para construir más puentes entre las dos comunidades que se complementan – Hay diferencias pero tampoco tantas como las que uno creería-.