Combien d'écolos faut-il pour changer une planète ? - Part.2/11 - Systémique : la science des systèmes
Systémique : la science des systèmes
a.
Théorie des systèmes, complexité et mathématiques
On peut
définir un système comme « un ensemble d’éléments en interaction »
comme le décrivait simplement Ludwig Von Bertalanffy (1). Cette définition peut
s’appliquer à un nombre incalculable de choses dans notre univers et c’est
précisément le but. En effet, l’étude des systèmes est un champ
transdisciplinaire et holiste descendant de la théorie de l’information et de
la cybernétique. Le système solaire, le climat, la société, l’économie, une
cellule ou un être humain sont autant d’exemples de systèmes. L’une des bases
de la discipline est l’existence d’isomorphismes, des similitudes
structurelles, entre des systèmes différents, ce qui permet de supplanter la
notion de coïncidence pour parler de lois régissant tous les systèmes répondant
à des caractéristiques similaires (1).
Rentrons un
peu plus dans les détails en précisant la première de ces caractéristiques, les
deux grands types de systèmes : ouverts et fermés. Un système fermé est un
système n’ayant pas d’interactions avec son environnement, isolé. Il est voué à
subir une entropie croissante, la tendance d’un système à aller vers des états
de désordre maximum et de nivellement des différences, et son état final est
déterminé uniquement par ses conditions initiales (1). Un système ouvert est
lui en interaction avec son environnement et il existe des flux entrants et
sortants du système. Différentes conditions initiales peuvent le conduire au
même état final, c’est ce qu’on appelle « l’équifinalité ». Le
système ouvert produit lui aussi de l’entropie mais peut également importer de
l’entropie positive ou négative, ce qui peut donc lui éviter l’état de désordre
maximum et peut même le faire tendre vers un ordre et une organisation
supérieure à l’état initial (1).
Ensuite, un
système est dit « simple » si son évolution et son état final peuvent
être prédit, notamment par le calcul, et qu’il est dit linéaire, ou répondant
au principe de superposition. Le livret A est un système simple puisqu’une
action d’entrée entrainera toujours la même action de sortie, 30€ placés
rapporteront toujours 0.225€, et que la somme de deux actions d’entrée
différentes donnera la somme des deux actions de sortie correspondantes, 20€
rapportera 0.15€ et 10€ rapportera 0.075€, de même pour une multiplication, 30€
ou 2 fois 15€ rapporteront la même chose, c’est le principe de superposition. Ceci
est notamment dû au fait que les éléments du système s’influent entre eux de
façon linéaire mais aussi qu’ils soient peu nombreux et avec un nombre limité
d’interactions.
A l’inverse,
un système est dit complexe lorsqu’il n’évolue plus de façon linéaire,
c’est-à-dire qu’on ne peut pas prévoir l’évolution et l’état final du système, deux
entrées différentes n’auront pas deux sorties linéairement, ou
proportionnellement pour simplifier, différentes. Ceci vient du fait que les
systèmes complexes sont composés d’éléments très interconnectés et pas de façon
homogène, et souvent en grand nombres même si ce n’est pas une condition
mathématique. Les systèmes complexes ont également la particularité de faire
émerger des niveaux d’organisations différents et on peut même en faire une
hiérarchie des systèmes : les structures statiques, les mouvements
d’horlogerie, les mécanismes d’auto-régulation, les systèmes ouverts, les
organismes de bas niveau, les animaux, les hommes, les systèmes socio-culturels
et les systèmes symboliques (1). Les systèmes complexes voient également
apparaître des comportements collectifs qui ne sont pas évidents aux vues des
conditions initiales du système, comme dans le Jeu de la Vie de John Conway, c’est ce qu’on appelle
« l’émergence », traditionnellement résumé en « le tout est plus
que la somme des parties » et à rapprocher du concept de synergie. Poussé
à l’extrême, un système complexe peut devenir chaotique, c’est-à-dire qu’il est
très sensible aux conditions initiales et intègre de la récurrence, autrement
dit une sorte de périodicité ramenant plusieurs fois le système vers sa
condition initiale durant son évolution. Poincaré fût le premier à mettre le
doigt sur cette sensibilité aux conditions initiales de certains systèmes
d’équations (2), mais c’est Edward Lorenz qui mettra en lumière le concept de
chaos dans les mathématiques avec son modèle météorologique et son désormais
célèbre « effet papillon » (3).
Cette nature
complexe des systèmes se lit dans les mathématiques utilisées pour les étudier
et les modéliser. En effet, les systèmes complexes se représentent par des
systèmes d’équations différentielles, des équations décrivant chacune
l’évolution d’une variable comme la résultante de l’évolution de toutes les
autres. De ce fait, la modification d’une variable va influer sur toutes les
autres, mais également sur elle-même, c’est ce qu’on appelle une « rétroaction »,
l’information de sortie devient l’information d’entrée, et c’est cela qui peut
mener un système complexe à devenir chaotique lorsque l’on ajoute la
sensibilité aux conditions initiales.
b.
Comportements et surprises
Maintenant que
nous savons ce que sont les systèmes complexes et chaotiques, attardons-nous
sur leur comportement pour le moins fascinant.
Les systèmes
complexes et chaotiques voient apparaitre des phénomènes de rétroaction,
positive ou négative, qui peuvent mener à des phénomènes d’emballement ou de
stabilité. L’emballement peut être positif, comme une exponentielle, ou
négatif, comme un effondrement. La stabilité, elle, intervient quand la
rétroaction fait tendre le résultat vers un ou des « attracteurs »,
c’est ce qu’on appelle « l’homéostasie » (1). En effet, la fonction
d’évolution du système va le faire tendre vers une certaine valeur et des
rétroactions s’enclenchent, grâce à ce qu’on appelle un « facteur limitant »,
de façon positive et négative pour contrer les phénomènes d’emballement, et
ceux même lorsqu’on applique des perturbations au système. La stabilité peut
également être périodique lorsque le système a plusieurs attracteurs. Un
système qui paraissait stable sur un attracteur peut subir, à la suite d’une
perturbation trop importante, un « effet de seuil » au niveau du
facteur limitant, c’est-à-dire le changement de comportement d’un système à
partir d’une certaine valeur, et passer vers un autre attracteur, passant d’un
état stable à un autre. C’est notamment le cas avec les équations de Lotka-Volterra
dans leur système proie-prédateur où les prédateurs mangent les proies jusqu’à
mourir de faim en masse, avant que la population de proies ne se reconstruise
car moins attaquée, et ce à l’infini (4)(5).
Les effets de seuil peuvent également mener à
des emballements positifs et négatifs, même si dans la pratique un effet
d’emballement positif mène au bout d’un moment à une saturation, la
consommation de toutes les ressources de l’environnement du système, ce qu’on
appelle un « Over shoot », qui entraine son effondrement (6).
Source : Structure
And Behavior In System Dynamics : A Case Study In Logistic ; Arzu Eren
Senaras, 2017.
Au cours de
son évolution, les interactions hétérogènes au sein du système vont mener à la
création de « groupes » d’éléments. Certains éléments vont favoriser des
interactions avec les éléments du groupe, c’es ce qui donne les niveaux
d’organisation différents et l’émergence, puisqu’un groupe peut être composé
d’éléments du plus petit niveau afin de réaliser une tâche simple ou alors
d’éléments privilégiés au sein de leurs groupes respectifs, les reliant ainsi.
Cette dynamique a énormément de conséquences.
Tout d’abord,
elle implique qu’une partie du système n’est pas représentative du système,
c’est la « symétrie brisée » (1). Ensuite, se créé une « redondance »
dans le système et les groupes. La redondance est le fait qu’une tâche ou un
rôle est accomplie par plusieurs éléments et que chaque élément ait plusieurs tâches
ou rôles. De ce fait, chaque élément contient une grande quantité d’information
sur la marche à suivre du système, le tout est dans chaque partie, mais est
aussi insignifiant pour cette bonne marche, ce qui assure au système une grande
résilience (1).
A l’inverse,
les groupes augmentent également l’efficacité du système en établissant des
aménagements fixes, non soumis à la fluctuation, et des contraintes qui réduise
le bruit dans les actions du système. Cet aspect peut être vu comme antagoniste
à la résilience puisqu’il réduit « l’équipotentialité » des éléments,
le potentiel égal de chaque élément à faire vivre le système, en introduisant
un biais de sélection et donc en désincitant la diversité, source de
résilience. Cette dualité entre efficacité et résilience nécessite un équilibre
constant et est structurelle dans les systèmes, puisque la formation de groupes
hétérogènes et sous-communicant, plutôt qu’une interconnexion trop poussée et
homogène, limite les effets de contagion et favorise l’adaptation par la
diversité (1).
Sources :
(1) Bertalanffy,
(1968). Théorie générale des systèmes,
Paris, Dunod, 1973.
(2) Poincaré,
(1892). Les méthodes nouvelles de la
mécanique céleste, 3 volumes, Éditions Gauthiers-Villars.
(3) Lorenz,
(1992). The Essence of Chaos, The
Jessie and John Danz Lecture Series, University of Washington Press, 1993.
(4) Lotka,
(1925). Elements of Physical Biology,
Williams & Wilkins Company.
(5) Volterra,
(1926). Fluctuations in the abundance of
a species considered mathematically, Nature.
(6) Senaras, (2017). Structure
And Behavior In System Dynamics : A Case Study In Logistic, ResearchGate,
Uludag University


Commentaires
Enregistrer un commentaire