Upload
dinhbao
View
215
Download
0
Embed Size (px)
Citation preview
2010 - 2011
MEMOIRE DE RECHERCHE
Sebastien Bernaud - Thomas Provoost Maître de mémoire : Alain Lioret
Vie Naturelle et Artificielle
Apports à la Science
Merci à M. Lioret pour nous avoir accompagné tout
au long de l’écriture de ce mémoire.
Vie Naturelle et Artificielle : Apports à la Science 2011
i
SOMMAIRE
Introduction 1
Vie Artificielle ....................................................................................................................... 1
Evolution de l’Intelligence Artificielle .................................................................................. 2
Dates clefs de l’Intelligence Artificielle ......................................................................... 2
Parallèle : Evolution de la puissance des ordinateurs ..................................................... 3
1 Biologie : source d’idées pour l’Intelligence Artificielle 5
1.1 Algorithmes génétiques – Genetic Algorithms .............................................................. 5
1.1.1 Définition d’un algorithme génétique ................................................................... 5
1.1.2 Fonctionnement ..................................................................................................... 6
1.1.3 Choix du codage.................................................................................................... 8
1.1.4 Fonction d’évaluation ........................................................................................... 8
1.1.5 Méthodes de sélection ........................................................................................... 8
1.1.6 Croisements et mutations ...................................................................................... 9
1.2 Réseaux de neurones – Neural Networks ..................................................................... 11
1.2.1 Neurone formel ................................................................................................... 11
1.2.2 Réseau de neurones artificiel .............................................................................. 13
1.2.3 Apprentissage ...................................................................................................... 14
1.2.4 Architectures ....................................................................................................... 15
1.3 Automates Cellulaires – Cellular Systems ................................................................... 18
1.3.1 Définition ............................................................................................................ 18
1.3.2 Le Jeu de la Vie de Conway – Conway’s Game of Life ...................................... 20
1.3.3 Portée des Automates Cellulaires et du Jeu de la Vie ......................................... 24
1.4 Automates cellulaires autoréplicateurs ......................................................................... 24
1.4.1 Von Neumann ..................................................................................................... 25
1.4.2 Boucle de Langton .............................................................................................. 28
2 Intelligence Artificielle : l’informatique au service de la Biologie et de la Science 30
2.1 Automates Cellulaires .................................................................................................. 30
2.2 Des L-systèmes partout dans la nature ......................................................................... 31
2.3 Boids : une nuée comme une autre ............................................................................... 33
2.4 Apparition de la Vie ..................................................................................................... 34
2.4.1 Préambule : Soupe Primitive............................................................................... 34
2.4.2 Core War : MARS............................................................................................... 34
Vie Naturelle et Artificielle : Apports à la Science 2011
ii
2.4.3 VENUS : évolution de Core War ........................................................................ 36
2.4.4 Tierra : nouveau modèle pour la Vie Artificielle ................................................ 37
3 Le Futur de la Science : Recherche 40
3.1 Génome ......................................................................................................................... 40
3.2 Vision du monde naturel par les organismes artificiels ................................................ 41
3.3 Nouvelle Conception de l’Intelligence Artificielle ...................................................... 42
3.3.1 Intelligence Globale Artificielle.......................................................................... 42
3.3.2 Mind Machine Project ......................................................................................... 43
3.3.3 Un Futur Incertain ............................................................................................... 45
Conclusion 46
4 Annexes - 1 -
4.1 Rappels de Biologie ................................................................................................... - 1 -
4.1.1 ADN ................................................................................................................. - 1 -
4.1.2 Génétique et Evolution..................................................................................... - 2 -
4.1.3 Neurones et Réseaux de Neurones ................................................................... - 5 -
4.2 Informatique .............................................................................................................. - 7 -
4.2.1 Machine de Turing ........................................................................................... - 7 -
4.2.2 Isaac Asimov .................................................................................................... - 8 -
4.3 Applets Web .............................................................................................................. - 9 -
Lexique - 10 -
Bibliographie - 12 -
Vie Naturelle et Artificielle : Apports à la Science 2011
1
INTRODUCTION
VIE ARTIFICIELLE
« La vie : état de ce qui n'est pas inerte. La vie artificielle : domaine de recherche qui
cherche à expliquer la définition précédente.1 »
Définir le concept de la vie artificielle est un processus complexe. On peut du moins partir
sur le principe suivant : quel que soit le système artificiel étudié, il doit être créé par l’homme.
Si l’on s’attarde sur les êtres vivants, on peut voir émerger certaines caractéristiques com-
munes à tous, telle leur autonomie, leur capacité à apprendre, mais aussi à interagir avec leur
environnement en s’y adaptant. On peut également y ajouter la présence de comportements en
tant qu’individus et groupes, et donc la possibilité de se reproduire. A partir de cela, on peut
considérer qu’un système artificiel possédant une ou plusieurs des caractéristiques citées
précédemment est une forme de vie artificielle.
Depuis l’invention de la machine de TURING, l’être humain ne cesse d’améliorer ses
compétences dans le domaine de l’Intelligence Artificielle. D’abord avec des systèmes
permettant des calculs simples, puis l’évolution des techniques a été fulgurante, notamment
grâce à une technologie de plus en plus puissante. Cependant, cela est également dû à des
idées toujours plus novatrices. On trouve aujourd’hui certains algorithmes qui permettent de
simuler des comportements et des caractéristiques d’êtres vivants comme la faculté de
reproduction, d’adaptation ou encore même la capacité d’apprentissage. Le but ultime de
toutes ces évolutions serait, dans le domaine de la vie artificielle, de parvenir à recréer de la
main de l’homme la vie et non pas une simulation de celle-ci.
De nos jours, l’utilisation d’ « intelligences » est courante pour remédier à des problèmes
dans de nombreux domaines de l’informatique, mais pas seulement. En effet, nous observons
une véritable synergie entre vie naturelle et artificielle. Chacun puise dans les ressources de
l’autre afin de faire évoluer les pensées et faire avancer le monde scientifique. Une question
ressort de ce paradoxe :
« En quoi la coopération entre Biologie et Intelligence Artificielle nous permet-elle de
progresser plus vite dans ces deux domaines, et dans la science en général ? »
Le but de ce document est de répondre à cette question, en étudiant plus en détail tant le
côté biologique qu’informatique, comment et surtout pourquoi chacun puise ses ressources
dans l’autre. Nous verrons ensuite le futur de cette synergie.
____________________
1RENARD (8)
Vie Naturelle et Artificielle : Apports à la Science 2011
2
EVOLUTION DE L’INTELLIGENCE ARTIFICIELLE
DATES CLEFS DE L’INTELLIGENCE ARTIFICIELLE
Vie Naturelle et Artificielle : Apports à la Science 2011
3
PARALLELE : EVOLUTION DE LA PUISSANCE DES ORDINATEURS
Depuis la création des premiers ordinateurs, les capacités (vitesses de calcul, capacités de
stockage, etc.) de ceux-ci n’ont cessé d’augmenter de manière exponentielle et semble
continuer dans cette voie.
Ces évolutions ont été une aubaine pour les domaines touchant à l’Intelligence Artificielle,
permettant ainsi d’appliquer des algorithmes de plus en plus complexes, traitant un nombre
de données toujours plus important.
Un exemple flagrant des bénéfices de cette évolution est le jeu de la vie de CONWAY qu’il a
à l’origine mis au point sur un jeu de Go, puisqu’il n’avait pas les moyens informatiques en
1970 pour le simuler. C’est aussi le cas d’autres théories qui n’ont pu être vérifiées que tard
après leur apparition, suite à la progression des systèmes informatiques.
Le graphique à la page suivante est une illustration de cette évolution depuis les années
1900 comparant la puissance des ordinateurs avec les capacités cérébrales de créatures
biologiques. On y remarquera la croissance impressionnante, et surtout la courbe se
rapprochant de plus en plus du cerveau de l’être humain. Notons la forme de la courbe qui,
comme nous l’avons dit, se rapproche de la fonction exponentielle.
Vie Naturelle et Artificielle : Apports à la Science 2011
4
Vie Naturelle et Artificielle : Apports à la Science 2011
5
1 BIOLOGIE : SOURCE D’IDEES POUR L’INTELLIGENCE
ARTIFICIELLE
1.1 ALGORITHMES GENETIQUES – GENETIC ALGORITHMS
1.1.1 DEFINITION D’UN ALGORITHME GENETIQUE
« L'algorithme génétique ne fait que transposer ce que fait la nature à des systèmes
artificiels. Il simule les processus évolutifs Darwiniens et génétiques s'appliquant aux
chromosomes. Il transforme un ensemble d'objets mathématiques, une population
d'individus souvent représentés par des chaînes de caractères pour imiter les chaînes
d'ADN, chacun ayant une valeur d'adaptation, en une nouvelle population. » 1
Les algorithmes génétiques ont pour but d’apporter une solution en un temps
raisonnable à un problème lié à l’optimisation : c’est-à-dire qu’il est soit impossible de
trouver une méthode exacte, soit que la solution n’est pas connue. En effet, il peut
parfois être très lourd de faire de l’approximation, et il n’est pas envisageable de
trouver une solution en ne se basant qu’uniquement sur de l’aléatoire.
L’idée est d’utiliser les méthodes observées en biologie pour s’approcher lentement
mais surement de la solution. Le problème étant qu’avec ce type d’algorithmes, il peut
ne pas y avoir de solution, si bien qu’il faudra soit relancer un test, soit modifier les
facteurs d’évolutions liés aux facteurs de sélections, d’enjambements et de mutations2.
Il s’agit véritablement d’une technologie où il faut avancer « à tâtons », ce qui peut se
révéler pour le moins pénible.
Ce type d’algorithme fait l’analogie avec l’évolution naturelle de DARWIN3 : en
biologie, l’espèce la plus adaptée survie et se répand. Dans notre système, la solution
la plus adaptée, comme le plus court chemin d’un point à un autre, se répand parmi les
individus, et permettra l’évolution vers la solution finale.
____________________
1 TISSERANT, A. (2)
2 Voir Annexe
3 DARWIN, C., (1)
Vie Naturelle et Artificielle : Apports à la Science 2011
6
1.1.2 FONCTIONNEMENT
Afin de représenter au mieux les conditions biologiques, les algorithmes génétiques
se basent sur quatre opérateurs de base 1:
- Evaluation
- Sélection
- Croisement
- Mutation
Ces opérateurs sont utilisés pour différentes étapes :
1. Evaluation : cette étape consiste à détecter le niveau d’adaptation de l’individu.
Pour faire simple, on va attribuer une note d’adaptation (« fitness ») qui permettra
d’ordonner les individus répondant au mieux à la solution ;
2. Sélection : cette étape est cruciale et à ne pas prendre à la légère, c’est à ce mo-
ment que l’on choisit quels individus seront choisis selon leur fitness. Ces
individus représentent les parents de la prochaine génération. Pour ce faire, diffé-
rentes méthodes existent :
a. Sélection par roue biaisée : les individus sont choisis au hasard, mais ils
ont plus de chance d’être sélectionnés s’ils ont une bonne fitness ;
b. Sélection par tournoi : on choisit aléatoirement un nombre défini d’indivi-
dus. On les compare ensuite selon leur fitness, et on prend le meilleur ;
3. Croisements et mutations : cette étape consiste à générer la nouvelle popula-
tion et à appliquer les différents brassages génétiques semblables à ceux de la
biologie :
a. Croisement : l’enfant créé dispose d’une partie de chaque parent ;
b. Mutation : une modification abrupte apparaît chez l’enfant.
Ces étapes seront répétées tant que l’on n’a pas trouvé de solution, ou que notre
nombre maximum de générations a été atteint.
Lorsque celui-ci a été atteint, et qu’aucune solution parfaite n’a été trouvée, il faut
soit relancer l’algorithme, soit changer le taux d’enjambements, le taux de mutations,
ou encore même les deux à la fois. Il est également parfois nécessaire de choisir une
méthode de sélection plus adaptée.
____________________
1HOLLAND, J. H. (30)
Vie Naturelle et Artificielle : Apports à la Science 2011
7
Ces étapes peuvent être schématisées de la façon suivante :
Figure 1 – Schéma d’un algorithme génétique
Vie Naturelle et Artificielle : Apports à la Science 2011
8
1.1.3 CHOIX DU CODAGE
Un des éléments fondamentaux lors de la mise en place d’un algorithme génétique
est la manière dont vont être codés les chromosomes (individus). De manière générale,
il n’existe pas de « bon » codage, chaque problème est particulier et peut être
représenté de plusieurs manières. Toutefois, certains chercheurs partent du principe
que « l’utilisateur doit choisir le plus petit alphabet qui permette une expression
naturelle du phénomène1 ».
Voici tout de même, quelques exemples courants de codage :
- Format binaire2 : il s’agît certainement de l’une des représentations les plus
utilisées à l’heure actuelle, étant donné que c’est elle qui permet le plus de
possibilités d’enjambements. Par exemple, si l’on compare le format décimal et
binaire :
Décimal : 9-7-3 ;
Binaire : 100101110011 ;
Ici, la version décimale ne peut jouer que sur deux points spécifiques (7-
9-3,3-9-7,…), alors que la version binaire a onze possibilités ;
- Caractères multiples : l’idée part sur le même principe du codage binaire, à
près que chaque caractère pourra prendre plus de valeurs que sur un format
binaire classique.
1.1.4 FONCTION D’EVALUATION
Les algorithmes génétiques se basent sur la diversité de la population afin d’évoluer
vers une solution. Il est donc nécessaire de pouvoir estimer le degré d’adaptation d’un
individu à un problème donné ; c’est le rôle de la fonction d’évaluation.
Il est évident que cette fonction va découler du problème que l’algorithme doit
résoudre. Elle devra donc être spécifique à ce dernier, mais il est très probable que
pour un même problème, plusieurs fonctions puissent être réalisées. Il est cependant
nécessaire que tous les individus soient « jugés » sur le ou les mêmes critères, sans
quoi le résultat risque d’être grandement compromis.
1.1.5 METHODES DE SELECTION
La méthode la plus évidente est celle proposée par John Henry HOLLAND3 et qui
consiste à associer la probabilité de sélection d’un individu à sa « fitness ». C’est la
méthode dite de la roue biaisé. L’un des problèmes majeurs de cette méthode est
qu’elle implique un risque de convergence prématurée entraînant ainsi un caractère
élitiste.
____________________
1 GOLDBERG, D. E. (27)
2 HOLLAND, J. H. (30)
3 HOLLAND, J. H. (30)
Vie Naturelle et Artificielle : Apports à la Science 2011
9
Individu Fitness Probabilité de sélection
A 4 4/20 = 20%
B 6 6/20 = 30%
C 2 2/20 =10%
D 3 3/20 = 15%
E 5 5/20 = 25%
Total 20
Une seconde méthode très efficace est celle dite du « tournoi »1. On va sélectionner
aléatoirement k-individus parmi la population globale. Une fois ces individus
sélectionnés, on va tirer un chiffre au hasard que l’on va ensuite comparer à des
valeurs prédéterminées, dans l’idée de conserver un seul des individus.
Par exemple, on peut choisir de prendre aléatoirement 3 individus, tirer ensuite un
nombre entre 0 et 2 et choisir l’individu à garder en fonction des cas suivants :
- 0 : on prend la plus haute fitness
- 1 : on prend la deuxième fitness
- 2 : on prend la dernière fitness
Population de base
et fitness
Individus choisis
aléatoirement
Individus
sélectionné
A = 4
B = 6
C = 2
D = 3
E = 5
A = 4
C = 2
D = 3
D
Une fois la sélection achevée, le ou les individus sélectionnés seront conservés afin
d’engendrer la prochaine génération de la population par le biais de croisements et de
mutations.
1.1.6 CROISEMENTS ET MUTATIONS
CROISEMENTS
Grâces aux croisements, il va être possible de recombiner les gènes présents dans la
population afin de former de nouveaux chromosomes. Les croisements sont limités par
le matériel génétique présent dans la population, il n’est donc pas possible de faire
apparaitre de la nouveauté par ce moyen. On utilisera à cet effet les mutations, afin de
faire apparaitre des structures génétiques absentes.
____________________
1 GOLDBERG, D.E. ; MILLER, B.L. (28)
Vie Naturelle et Artificielle : Apports à la Science 2011
10
Les croisements s’opèrent sur les génomes des parents sélectionnés. Afin
d’effectuer un croisement il suffit de déterminer un ou plusieurs points de croisement
au hasard et de substituer les parties qui les suivent.
Voici un exemple :
Père : AB CDEF
Mère : GH IJKL
Fils : ABIJKL Croisement simple
Père : AB C DE F
Mère : GH I JK L
Fils : ABIDEL Croisement en trois points
MUTATIONS
Comme dans la nature, les descendants ne sont pas de simples copies de leurs
parents, il arrive que certains chromosomes soient originaux. Les algorithmes
génétiques suivent le même procédé lors de la mutation qui va engendrer la
modification au hasard d’un ou plusieurs nucléotides.
L’utilisation de la mutation dans les algorithmes génétiques permet d’introduire un
élément créateur permettant ainsi d’élargir les possibilités de l’algorithme. Il faut
néanmoins faire attention à ce qu’il n’y ait pas trop de mutations, cela empêchant
généralement la convergence de l’algorithme.
Exemple :
Père : AB CDEF
Mère : GH IJKL
Fils : ABIJKL
Fils muté : ABLJKL Mutation après croisement
Vie Naturelle et Artificielle : Apports à la Science 2011
11
1.2 RESEAUX DE NEURONES – NEURAL NETWORKS
Un réseau de neurones est un modèle de calcul basé sur le fonctionnement des
neurones du cerveau humain. De manière générale, un réseau de neurones est un
système adaptatif qui évolue en fonction des informations qu’il reçoit durant la phase
d’apprentissage.
Figure 2 - Exemple de réseau de neurones
Pour représenter cela en informatique, le réseau de neurones artificiel sera composé
de neurones formels interconnectés. Nous allons donc d’abord nous intéresser aux
neurones formels, afin de comprendre l’essence même d’un réseau de neurones artifi-
ciel.
1.2.1 NEURONE FORMEL
Le neurone formel est une modélisation mathématique et informatique du neurone.
Celui-ci a été créé par MAC CULLOCH et PITTS1, en reprenant les principes du
fonctionnement du neurone biologique (voir Annexe).
Il est composé de 3 éléments de base :
- un ensemble de synapses chacun caractérisé par un poids Wnj, avec j le neurone et
n la synapse. Généralement, la synapse 0 est fixée et se nomme « biais » ;
- un additionneur permettant de sommer les signaux en entrée ;
- une fonction d’activation.
____________________
1 MCCULLOCH, W. ; PITTS, W. (11)
Vie Naturelle et Artificielle : Apports à la Science 2011
12
REPRESENTATION
Figure 3 - Représentation d'un neurone formel
REPRESENTATION MATHEMATIQUE
Cette représentation est mathématiquement décrite par deux équations permettant
de déterminer le signal de sortie du neurone :
∑
et
FONCTIONS D’ACTIVATION
La fonction d’activation peut être adaptée au problème traité par le réseau de
neurones. La plupart des neurones formels actuels utilisent l’une des fonctions
suivantes 1 :
- fonction sigmoïde :
____________________
1 MATUSSI, C. ; FLOREANO, D. (4)
Vie Naturelle et Artificielle : Apports à la Science 2011
13
- fonction linéaire par parties :
- fonction à seuil : {
1.2.2 RESEAU DE NEURONES ARTIFICIEL
Comme vu précédemment, le réseau de neurones artificiels (RNA) est un ensemble
de neurones formels fonctionnant en parallèle.
Ce réseau s’organise en plusieurs couches ou sous-groupes. Chaque couche va ainsi
effectuer un traitement indépendant et transmettra le résultat (ou sortie) à une ou
plusieurs autres couches, selon l’architecture adoptée (cf. 1.2.4 Architectures). Le
modèle le plus basique de réseau comporte un seul et unique neurone formel
permettant de représenter des fonctions logiques élémentaires (tel que le OU logique et
le ET logique)1.
Figure 4 - Exemple de réseau ET logique
____________________
1 MCCULLOCH, W. ; PITTS, W. (11)
Vie Naturelle et Artificielle : Apports à la Science 2011
14
Le réel intérêt du réseau de neurones artificiels réside justement dans la pluralité
des architectures possibles, chacune ayant un rôle défini selon les besoins.
Cependant, il est parfois très complexe de modéliser un problème spécifique, et ce à
cause de l’approche qu’impliquent ces architectures. Il s’agît du gros inconvénient du
RNA.
1.2.3 APPRENTISSAGE
Lors de la mise en place d’un réseau de neurones, il est nécessaire d’affecter à
chaque synapse son poids w. Bien que sur un réseau possédant un seul neurone il soit
possible de déterminer ces poids à la main, ceci est irréalisable dès lors que l’on se
trouve sur un réseau plus complexe. Dans cette optique, des méthodes d’apprentissage
ont été mises au point. Trois grandes méthodes existent et toutes utilisent une forme de
descente de gradient :
APPRENTISSAGE SUPERVISE 1
Le principe de l’apprentissage supervisé est simple : on fournit au réseau un
ensemble de valeurs d’entrée et pour chacun de ces ensembles, on fournit le résultat
attendu en sortie.
A chaque passage dans le réseau d’un ensemble de valeurs de test, le résultat
obtenu en sortie est comparé au résultat attendu. Si les résultats correspondent, on peut
considérer que le réseau est prêt. Sinon, à chaque itération on va remonter le réseau à
partir de la couche de sortie et modifier les poids w de chaque synapse afin de
diminuer l’erreur entre résultat attendu et résultat obtenu. Ce procédé est appelé
« retro-propagation de l’erreur »2.
APPRENTISSAGE NON-SUPERVISE 3
A contrario, l’apprentissage non-supervisé ne va pas forcer le réseau à tendre vers
un résultat attendu et préfixé. Ici, le réseau va modifier les poids de ses synapses en
fonction de leur activation : plus une synapse va être activée lors de la présentation des
valeurs d’entrée, plus la valeur de ses poids w va être élevée. En conséquence, les
neurones de sortie seront plus actifs lorsque l’on présentera au réseau des données
familières.
APPRENTISSAGE PAR RENFORCEMENT 4
Le principal problème des réseaux entrainés avec un apprentissage supervisé ou
non, est qu’ils ne peuvent être utilisés que dans les situations pour lesquelles ils ont été
____________________
1 MATUSSI, C. ; FLOREANO, D. (4)
2 RUMELHART, D. (12)
3 HINTON G. E. ; SEJNOWSKI, T. J. (26)
4 MATUSSI, C. ;FLOREANO, D. (4)
Vie Naturelle et Artificielle : Apports à la Science 2011
15
entrainés. Les réseaux qui vont évoluer dans des environnements partiellement
inconnus ne peuvent donc être entrainés par ces méthodes.
L’intérêt de l’apprentissage par renforcement réside dans le fait que les données
d’entrées du réseau ne sont pas fournies mais générées par les interactions entre
l’agent et son environnement1. Chaque action de l’agent va générer un coût, et
l’objectif sera alors de trouver un moyen de le réduire.
1.2.4 ARCHITECTURES
LES RESEAUX « FEED-FORWARD » OU PERCEPTRONS2
Dans cette architecture, l’information se propage de couches en couches (une
couche pouvant avoir en entrée la sortie d’une autre couche), aucun retour arrière n’est
possible. On peut donc utiliser un perceptron pour résoudre des opérations logiques,
telles que « ET », « OU » ou encore « NON ».
Exemple d’un « OU » logique :
Figure 5 - Perceptron OU logique
____________________
1 SUTTON (13)
2 MCCULLOCH, W. ; PITTS, W. (11)
Vie Naturelle et Artificielle : Apports à la Science 2011
16
LES RESEAUX « FEED-BACK » OU RESEAUX RECURRENTS
KOHONEN
Dans l’architecture « FEED-BACK », on observe un véritable retour en arrière de
l’information, qui permet d’ajuster au fur et à mesure chaque couche. Ainsi, si l’on
prend l’exemple des cartes auto-organisatrices de KOHONEN1, un vecteur de poids est
ajusté à chaque modification, pour parvenir vers la solution, c’est-à-dire la forme que
l’on souhaite apercevoir.
Figure 6 - Carte auto-organisatrice de Kohonen
Exemple de résultats :
Figure 7 - Carte auto-organisatrice se rapprochant d'un avion et d'un cactus
____________________
1 KOHONEN, T. (32)
Vie Naturelle et Artificielle : Apports à la Science 2011
17
HOPFIELD
De plus, on peut observer des réseaux de neurones formels non linéaires, comme
dans le cas du réseau de Hopfield1, où il n’y a plus aucune différence entre neurone
d’entrée et de sortie.
On voit sur le schéma ci-après que la sortie y1 se retrouve injectée de nouveau dans
le neurone 1, mais également dans le neurone 2 et dans le neurone 3. Fonctionnent de
la même manière les sorties y2 et y3.
Figure 8 - Réseau de Hopfield
La mémoire associative est le parfait exemple de l’utilisation d’un réseau de
Hopfield, même s’il faut être très prudent quant aux modèles (pattern) stockés dans le
réseau. En effet, si un pattern est faux, impossible d’avoir un résultat qui fonctionne.
____________________
1 HOPFIELD, J J. (29)
Vie Naturelle et Artificielle : Apports à la Science 2011
18
1.3 AUTOMATES CELLULAIRES – CELLULAR SYSTEMS
1.3.1 DEFINITION
En biologie, dans un organisme multicellulaire, toutes les cellules contiennent le
même matériel génétique mais elles ont cependant une morphologie et une fonction
pouvant fortement varier de l’une à l’autre. Cette différence s’explique par le fait que
l’état de la cellule dépend non seulement de son matériel génétique, mais également
des différentes influences qu’elle a pu subir lors de sa création.
Pour représenter cela en informatique, devront exister différents critères qui
permettront de disposer d’une base d'automates cellulaires facilement adaptables1 :
- Un espace cellulaire : nom de la collection de cellules dans l’automate. Il est
exprimé dans une dimension d de réseaux de cellules. On peut avoir une grille de
cellules (en 2D) tout comme une représentation en un cube formé de petits cubes
(en 3D) :
Figure 9 - Des représentations possibles pour les automates cellulaires
- Une variable de temps : les changements de la cellule s’effectuent au fur et à
mesure du temps, l’axe peut être soit discret, soit continu ;
- Un état et une liste d’états : l’état représente l’information spécifiant la condition
de la cellule à un instant t, il s’agît donc de la mémoire de ce qui est arrivé à cette
cellule dans le passé, et c’est cette mémoire qui influencera les autres cellules ;
- Un voisinage : chaque dispose d’un voisinage sur lequel elle va avoir un impact,
tout comme celui-ci aura un impact sur elle. Le voisinage concerne donc les
cellules qui ont un impact direct sur la cellule ;
- Fonction de transition : ou fonction de transition d’état est la fonction qui
spécifie comment l’état d’une cellule se déroule dans le temps. Elle dépend
____________________
1 ULAM, S. (18)
Vie Naturelle et Artificielle : Apports à la Science 2011
19
principalement du voisinage de la cellule, et possiblement de sa position et de
l’instant t ; - Conditions des bords
1 : lorsqu’une cellule ne dispose pas du bon nombre de
voisins (cas où l’on est sur le bord de l’espace cellulaire), il faut définir une
méthode spécifique à ce traitement, les plus connues étant :
Périodicité : on prend la cellule située à l’opposée (on transforme l’espace
cellulaire en un espace toroïdal) :
Assignement : création de voisins virtuels (aléatoirement ou non) :
Copie – Adiabaticité : copie de l’état d’une cellule (cellule du bord ou une
mitoyenne) :
Réflexion : processus qui applique un procédé défini dans l’automate
cellulaire (ex : une particule qui se cogne contre un mur) :
- Conditions initiales : état initial des cellules ou graine de l’automate cellulaire ;
- Conditions de sortie : les conditions spécifiant l’arrêt de la mise à jour des
cellules. Une condition d’arrêt typique : on est arrivé au temps tmax.
Stanislas ULAM s’est intéressé à la dynamique de configurations graphiques engen-
drées par ces règles simples et a rapidement constaté l’énorme diversité de formes à la
fois complexes et esthétiques2. Ces travaux ont d’ailleurs directement contribué au jeu
de la vie de CONWAY.
____________________
1 MATUSSI, C. ; FLOREANNO, D. (4)
2 ULAM, S. (18)
Vie Naturelle et Artificielle : Apports à la Science 2011
20
1.3.2 LE JEU DE LA VIE DE CONWAY – CONWAY’S GAME OF LIFE
La représentation par excellence de l’automate cellulaire est le très fameux « Jeu de
la Vie » créé par le mathématicien britannique John Horton CONWAY en 1970. Ce jeu
n’est pas apparu par hasard, il a fallu deux ans à son créateur avant de le faire paraître
dans une revue scientifique, rubrique jeu mathématique1. On retiendra que, faute
d’ordinateurs suffisamment puissants, CONWAY a créé son jeu à l’aide d’un jeu de Go.
Le nom est paradoxal, puisqu’il ne s’agît pas d’un jeu au sens habituel du terme. En
effet, il ne nécessite aucun joueur, l’environnement évolue par lui-même.
STRUCTURE DU JEU DE LA VIE
Ce jeu est bien structuré sur la base des automates cellulaires que nous avons vue
précédemment :
- Espace cellulaire : deux dimensions (grille toroïdale) ;
- Variable de temps : présente ;
- Liste des états :
Vivant ;
Mort ;
- Voisinage : 8 voisins ;
- Fonction de transition : définie par quatre règles
Une cellule ayant moins de deux voisins meurt (sous population) ;
Une cellule ayant plus de trois voisins meurt (surpopulation) ;
Une cellule ayant deux ou trois voisins survit (reproduction) ;
Une cellule naît si elle a exactement trois voisins (reproduction) ;
- Condition des bords : périodicité ;
- Condition initiale : définie par l’utilisateur (choix des cellules vivantes ou
mortes sur la grille) ;
- Conditions de sortie :
Homogénéité de la solution ;
Arrivée au tmax.
____________________
1 GARDNER, M. (21)
Vie Naturelle et Artificielle : Apports à la Science 2011
21
VOISINAGE : FONCTIONNEMENT
L’image ci-dessous montre la fonction de transition du Jeu de la Vie. On peut voir
que seules les cellules vivantes (noires) ayant deux ou trois voisins ont survécu, et que
seules les cellules mortes (blanches) ayant trois voisins sont nées.
Figure 10 - Détermination des nouveaux voisins étape par étape
FIGURES SPECIALES
ETATS STABLES
Après un certain nombre de changements, certaines configurations ne changent
plus. On dit qu’elles ont atteint un « état stable ». Cet état est atteint parce qu’aucune
cellule morte ne peut s’activer autour de la structure, et qu’aucune cellule de la
structure ne peut mourir, puisqu’elles remplissent les conditions de survie.
Figure 11 - Deux exemples de figures stables
OSCILLATEURS
D’autres structures ont un comportement différent : à un moment tn+x, elles
reviennent à un état précédent tn, où x varie selon la structure. Le meilleur cas
d’oscillation visible reste cependant x=1. La structure de l’exemple ci-dessous alterne
entre la forme de gauche et de droite.
Figure 12 - Exemple d'un oscillateur
Vie Naturelle et Artificielle : Apports à la Science 2011
22
JEU DE LA VIE : PAS A PAS
Une forme aléatoire a été
créée. Nous lançons le jeu de
la vie.
=
Résultat après 200 itérations.
Résultat après 400 itérations.
Le jeu s’est presque stabilisé,
mais il est bien loin de ce que
l’on avait au départ.
Cependant, en utilisant une plus grande échelle, on observe la chose suivante :
En réalité, l’automate qui semblait être stabilisé n’était pas fini, nous ne disposions
pas du recul nécessaire pour voir qu’à un autre endroit, se passait quelque chose.
Vie Naturelle et Artificielle : Apports à la Science 2011
23
PLUS LOIN ENCORE
GLIDER
La forme la plus intéressante, et certainement la plus utile est le « glider »
(planeur), qui est une structure se déplaçant à l’infini. Elle permet de réaliser des
structures complexes grâce à son déplacement.
Figure 13 - Glider
HORDE DE FANATIQUES
Certains automates cellulaires, lorsque l’on est à la bonne échelle, peuvent afficher
des résultats réellement impressionnant. On a appelé leurs créateurs, la « horde de
fanatiques ». C’est le cas de la machine de TURING vue par Peter RENDELL1 :
Figure 14 - Machine de Turing ____________________
1 http://web.archive.org/web/20030210114324/http://www.rendell.uk.co/gol/tm.htm
Vie Naturelle et Artificielle : Apports à la Science 2011
24
1.3.3 PORTEE DES AUTOMATES CELLULAIRES ET DU JEU DE LA VIE
Les automates cellulaires représentent un univers spécifique, régis par des règles
simples, qui permettent cependant d’analyser certains comportements de processus
émergents aussi nombreux que variés. CONWAY a tiré des conclusions très intéres-
santes de son jeu de la vie1 :
- il est parfaitement possible de construire des configurations du Jeu de la Vie qui
se comportent comme des animaux se reproduisent ;
- certaines structures sont parfois modifiées lors d’une collision avec une
configuration inattendue, les deux structures mutantes peuvent au final peut-être
gagner en efficacité ;
- certaines configurations se transforment en se déplaçant, on peut donc imaginer
en construire capables de survivre en détruisant des obstacles. Dans ce cas, si ces
individus sont dotés de capacité d’autoréplication (voir partie suivante), les
meilleurs organismes peupleront l’espace.
Si l’on suit cette logique, on arrive très vite à la conclusion suivante :
« Il est probable, si l’on considère un espace suffisant, initialement dans un état
aléatoire, que, après une longue durée, des animaux intelligents, se reproduisant,
émergeront et peupleront certains endroits de l’espace. C’est plus qu’une spéculation,
puisque les prémisses sont basées sur des théorèmes déjà montrés.2 »
1.4 AUTOMATES CELLULAIRES AUTOREPLICATEURS
Les automates cellulaires, comme nous l’avons vu précédemment, disposent d’une
excellente adaptabilité pour résoudre des problèmes de différents ordres, dans des
domaines très différents. Il permet également d’analyser un autre concept : le méca-
nisme d’autoréplication. On va donc changer notre perception des automates
cellulaires, pour faire en sorte qu’ils puissent s’autorépliquer.
Avant de commencer à parler d’automates cellulaires autoréplicateurs, il serait
judicieux de bien définir ce qu’est l’autoréplication, en faisant le parallèle avec
l’autoreproduction en biologie :
- la réplication : un système est considéré comme réplicateur s’il est capable de
créer des unités identiques entre elles, mais différentes de ce système ;
- la copie : il y a copie lorsqu’un système crée un objet identique à lui-même, sans
considération pour la méthode utilisée ;
____________________
1 BERBLEKAMP, E. ; CONWAY J.H. ; GUY, R. (22)
2 BERBLEKAMP, E. ; CONWAY J.H. ; GUY, R. (22)
Vie Naturelle et Artificielle : Apports à la Science 2011
25
- l’autoreproduction : « il y a autoreproduction lorsque, par un processus couplé à
son propre processus de production, une unité en produit une autre dotée d’une
organisation semblable à la sienne.1 »
On devra donc distinguer deux type d’autoreproduction : l’autoreproduction
« triviale », où l’on parle uniquement de mécanismes physiques, de l’autoreproduction
« réelle », qui elle représente le lien entre mécanisme du système et production du
descendant. Pour la suite de ce document, nous ne ferons référence qu’à
l’autoreproduction réelle, et utiliserons le terme autoreproduction pour le mécanisme
du vivant, et autoréplication comme mécanisme artificiel.
1.4.1 VON NEUMANN
John VON NEUMANN était un mathématicien et physicien hongrois d’exception. Né
en 1903, il fera vite ses preuves comme génie en travaillant dans des domaines
scientifiques complexes, telle la mécanique quantique en 19322, ou encore la Théorie
des Jeux liée à l’économie en 19433, concepts qui sont tous deux encore largement
répandus.
Cependant, VON NEUMANN a aussi travaillé dans le domaine de l’informatique,
puisqu’il est l’homme qui a suggéré en 19444, dans le cadre du projet Manhattan
5,
de non plus de créer des programmes de manière physiques, mais de les stocker en
mémoire. C’est donc lui qui a créé l’ordinateur tel que nous le connaissons
maintenant. Il ne s’est pas arrêté là, il a décidé de s’intéresser au vivant, et notamment
au concept d’autoréplication, et a tenté d’élaborer un système pouvant s’autorépliquer.
KINEMATON
Après avoir longuement étudié le phénomène d’autoréplication, VON NEUMANN
s’est posé la question suivante : comment des organismes complexes peuvent-ils créer
quelque chose d’aussi compliqué qu’eux-mêmes ?
VON NEUMANN a supposé possible l’existence d’un robot qui serait capable, en
étant dans un espace où sont disponibles toutes les pièces possibles et imaginables, de
créer son propre jumeau. Il l’a baptisé le Kinématon.
____________________
1 VARELA, F.J. (39)
2 VON NEUMANN, J. (40)
3 WOLFF, J. (38)
4 GOLDSTINE, H. (23)
5 Egalement connu sous le nom de bombe A.
Vie Naturelle et Artificielle : Apports à la Science 2011
26
Après de nombreuses recherches, VON NEUMANN en arrive à la conclusion
suivante : pour créer le Kinématon (ou un organisme autoréplicateur), il est
nécessaire d’avoir trois automates :
- un constructeur : automate disposant des capacités d’assemblage ;
- un copieur : automate copieur d’instructions;
- un contrôleur : automate de contrôle, disposant des instructions, faisant le lien
entre constructeur et copieur.
KINEMATON : FONCTIONNEMENT
Figure 15 - Kinématon simplifié
Contrôleur
Constructeur
Copieur
Vie Naturelle et Artificielle : Apports à la Science 2011
27
PORTEE DU KINEMATON
VON NEUMANN a donc démontré un nouveau concept : l’autoréplication n’est en
fait qu’une question d’organisation, et n’est donc ni dépendante de son essence, ni de
son matériel.
Même si le concept est au point, il semble impossible de disposer d’une machine
d’une telle puissance à cette époque (ce n’est d’ailleurs toujours pas envisageable à la
nôtre). VON NEUMANN décide donc de pallier à ce problème en utilisant les travaux sur
les automates cellulaires après une discussion avec ULAM.
Le changement est radical : VON NEUMANN « de cette manière, […] a jeté la moitié
du problème par la fenêtre1 ». En effet, il n’y a plus aucun problème pour tenter
d’expliquer comment les éléments peuvent être constitués, il suffira simplement de
prendre en compte des cellules, dotées de propriétés préétablies.
Cependant, VON NEUMANN décède prématurément, et ne peut finir ses travaux.
Ceux-ci seront repris par BURKS et seront complétés en 19662. BURKS a donc créé une
machine de TURING selon les travaux de son prédécesseur mais cependant très
complexe : 200 000 cellules et 29 états, le tout basé sur un voisinage de 5 cellules.
Tellement complexe, qu’il a fallu attendre le milieu des années 1990 pour le voir en
fonctionnement.
____________________
1 VON NEUMANN, J., BURKS, A. (41)
2 VON NEUMANN, J., BURKS, A. (41)
Vie Naturelle et Artificielle : Apports à la Science 2011
28
1.4.2 BOUCLE DE LANGTON
L’automate de VON NEUMANN n’est pas mauvais, mais extrêmement complexe,
puisque son automate constructeur est universel1, qui est selon lui la condition néces-
saire à une autoréplication non triviale.
Christopher LANGTON n’est pas d’accord avec cette approche. Si l’on considère les
premières molécules autoréplicatrices (donc précurseurs de la vie), elles n’étaient pas
disposées de capacité de construction universelle, et pourtant se reproduisaient. Cepen-
dant, si l’on retire cette caractéristique, comment différencier une autoréplication
réelle d’une triviale ?
LANGTON utilise les travaux de CODD, notamment son émetteur périodique. On ne
travaille plus avec une cellule allumée ou éteinte et le voisinage, on donne une valeur
pour l’état de chaque cellule.
Ainsi, la structure de CODD est constituée de deux parties :
- une bande de données composée de 0 (gris), de 1 (bleu foncé), et de 7 (bleu
clair) ;
- Celle-ci est entourée d’une membrane constituée de cellules à l’état 2 (rouge).
Certaines séquences spécifiques forment un signal (7-0). Lorsque le signal arrive
au croisement, il est dupliqué :
____________________
1 Le constructeur peut créer n’importe quel type d’automate
Vie Naturelle et Artificielle : Apports à la Science 2011
29
Cette configuration peut être utilisée pour du stockage dynamique d’information : il
n’y a plus besoin de « tête de lecture » comme sur une machine de TURING. Ainsi,
LANGTON va chercher une construction admettant une instruction qui est à la fois elle-
même et description d’elle-même. Au cours du temps, la bande de données devra se
dupliquer au niveau de sa séquence, mais aussi dans l’espace.
LANGTON a basé cette construction sur un carré, pour n’avoir la description que sur
un seul côté, donnant une structure avec une bande et une boucle, à l’instar de
l’émetteur de CODD. Cependant, la différence se situe sur les signaux : un signal 7-0
permet l’allongement d’une cellule et le signal 4-0 permet de construire un angle droit.
Ainsi, tandis que CODD disposait d’une seule boucle qui créait les donner en les
répliquant, Langton va encore plus loin en créant d’autres boucles.
Figure 16 - Boucle de Langton - Formation
Vie Naturelle et Artificielle : Apports à la Science 2011
30
2 INTELLIGENCE ARTIFICIELLE : L’INFORMATIQUE AU SERVICE
DE LA BIOLOGIE ET DE LA SCIENCE
2.1 AUTOMATES CELLULAIRES
« Notre univers est soumis aux lois de la physique. Ces lois ne sont que
partiellement connues et apparaissent hautement complexes. Dans un automate
cellulaire, les règles sont simples et complètement déterminées. Cette aptitude à
construire un univers connu, associée à la génération de processus émergents a
conféré aux automates cellulaires un large champ d’application1. »
Ces applications ne se limitent pas qu’à la science, et vont de la physique à la
dynamique urbaine, en passant par la cryptographie. Afin d’éviter tout débordement,
nous ne parlerons que de la partie qui nous intéresse.
- Supposons qu’une cellule de notre automate cellulaire représente une molécule en
physique. Grâce à cette connaissance parfaite des règles qui régissent cet
environnement, il est possible d’étudier le comportement global de molécules et
autres particules dans celui-ci pour simuler le comportement d’un gaz ;
- Toujours en physique, les automates cellulaires ont permis d’étude des matériaux
magnétiques selon le modèle d’ISING (1925)2. En effet, on utilise les cellules de
l’automate pour représenter le potentiel d’ISING3 (basé sur l’interaction propre et
l’interaction des voisins) ;
- En biologie, les automates cellulaires peuvent servir à la modélisation de la
croissance de tissus cellulaires, mais ils ont également été utilisés pour simuler les
processus de cristallisation, tels les flocons de neige4 (cf. ci-dessous) ;
- Dans le domaine de l’informatique : la modélisation d’ordinateurs parallèles, la
génération de nombre aléatoires, ou encore de la cryptographie.
Figure 17 - Simulation du processus de cristallisation à partir de bruit
____________________
1 RENNARD, J.P. (8)
2 Cité par RENNARD, J.P. (8)
3 LOUIS, P.Y. (19)
4 PACKARD, N. (20)
Vie Naturelle et Artificielle : Apports à la Science 2011
31
2.2 DES L-SYSTEMES PARTOUT DANS LA NATURE
Grâce aux L-systèmes, nous disposons d’un modèle de la morphogénèse pour la
création d’organismes à partir d’un minuscule individu (voir partie sur les L-
Systèmes). Cependant, peut-on réellement utiliser le modèle artificiel pour
comprendre le modèle naturel ? Peut-on mieux comprendre notre monde en étudiant
ces organismes artificiels ?
Il faut justement être extrêmement prudent, les processus établis dans le modèle
artificiel ne sont pas forcément les mêmes que ceux du modèle naturel, bien qu’au
final, un L-système puisse donner un résultat ressemblant fortement à une plante. En
effet, le monde naturel évolue d’une manière bien différente de celles des L-systèmes.
Cependant, on remarque aujourd’hui une véritable répétition chez les plantes et la
recherche actuelle tend à déterminer concrètement cette autosimilarité1.
Figure 18 - Chou Romanesco
Figure 19 - L-Systems 3D: http://fr.wikipedia.org
____________________
1 FERRARO, P. ; GODIN, C. (5)
Vie Naturelle et Artificielle : Apports à la Science 2011
32
A l’instar des L-systèmes, l’information pour le chou romanesco (cf. Figure 18 -
Chou Romanesco) semble donc être réutilisée sur plusieurs niveaux (échelles).
Pourtant, les processus morphogénétiques sont toujours très mal compris. Comment,
dans la nature, les gènes peuvent-ils coder la forme générale de l’individu ?
D’après Ian STEWART, l’explication se révèle plutôt simple : les processus
d’embranchements utilisés pour les L-systèmes sont observables dans la nature à
toutes les échelles et sont régis par des lois physiques et mathématiques universelles.
« Il serait certainement logique que les gènes exploitent tous les schémas
d’embranchements naturels que la physique et la chimie fournissent automatiquement
à travers des règles mathématiques universelles »1.
Ainsi, l’homme n’a pas inventé ce procédé mais n’a fait que créer l’outil
mathématique pour interpréter ces mécanismes. La récursivité serait donc le
phénomène expliquant comment on peut disposer d’un phénotype complexe à partir
d’un génotype simple.
____________________
1 STEWART, I. (6)
Vie Naturelle et Artificielle : Apports à la Science 2011
33
2.3 BOIDS : UNE NUEE COMME UNE AUTRE
Les boids fonctionnent par l’intermédiaire de règles locales simples, qui permettent
cependant la reproduction de comportements pour le moins réalistes. Ce réalisme est
dû à l’apparition de nouveaux comportements non prévus par les règles.
Dans l’image ci-contre, on voit
que les boids se sont séparés en deux
groupes distincts afin d’éviter un
obstacle. Cette règle n’a pourtant
jamais été définie, elle s’est créée à
partir des trois autres 1 :
- séparation : éviter les colli-
sions avec les voisins ;
- alignement : adapter la vitesse
en fonction des voisins ;
- cohésion : rester le plus près
possible du centre local.
Si l’on montre ce comportement à une personne lambda, elle reconnaîtra
instinctivement le comportement d’une nuée d’oiseau. La nuée de boids et la nuée
d’oiseau sont en ce point extrêmement similaires. LANGTON interprète cela de la façon
suivante : les règles prédéfinies sont le génotype, et le comportement global des boids
(cela inclue les nouveaux comportements) est le phénotype2.
La nuée de boids n’est au final jamais à l’équilibre, puisqu’elle comporte des
mouvements imprévisibles. En cela, le phénomène observé dans la nature et dans le
monde réel est le même : la nuée. Grâce à cette propriété, il devient très intéressant
d’utiliser des boids pour comprendre le fonctionnement des oiseaux et autres créatures
vivant en nuée (troupeaux, bancs de poissons, etc.). L’intérêt d’un point de vue
biologique est donc conséquent.
Figure 21 - Cohésion, Séparation, Alignement
____________________
1 REYNOLDS, C. (31)
2 LANGTON, C.G. (33)
Figure 20 - Boids évitant un obstacle
Vie Naturelle et Artificielle : Apports à la Science 2011
34
2.4 APPARITION DE LA VIE
2.4.1 PREAMBULE : SOUPE PRIMITIVE
Le concept de l’apparition de la vie sur Terre, qui fascine encore et toujours l’être
humain, est encore très loin d’être défini. Ce n’est d’ailleurs qu’en 1862, grâce à
PASTEUR et sa réfutation de la génération spontanée, que l’apparition de la vie s’est
engagée sur le domaine scientifique, faisant ainsi reculer la religion.
Cependant, un problème subsiste: les herbivores doivent se nourrir de plantes, mais
les plantes doivent se nourrir de minéraux. Ces minéraux semblent être créés par les
herbivores. Il y a donc un véritable cercle vicieux : comment aurait pu apparaître la vie
dans ces conditions ?
Bon nombre de chercheurs ont tenté d’élucider la question mais c’est en 1929
qu’OPARIN1 romps le cercle vicieux en proposant une nouvelle théorie : celle de la
« soupe primitive ». La soupe primitive est en réalité le nom que l’on a donné à
l’océan originel, c’est-à-dire l’océan qui s’est formé pendant la création de la Terre,
avant qu’il n’existe un quelconque être vivant. Cette soupe contenait diverses
molécules complexes générées grâces aux divers matériaux présents sur Terre (H20,
C02, H, N) et aux rayons du Soleil, les deux ayant permis la vie sur Terre.
Les approches plus récentes privilégient cependant un « monde à ARN » 2
. La
fonction principale de l’ARN est de transmettre le message codé de l’ADN pour
synthétiser des protéines, mais certains ARN (les ribozymes3) ont des propriétés
catalytiques, c’est-à-dire permettre la création de nouvelles molécules d’ARN dans la
soupe primitive. Ainsi, la création de la vie se base sur le principe d’autoréplication.
2.4.2 CORE WAR : MARS
En 1984, A.K. DEWDNEY propose le logiciel Core War dans la rubrique récréa-
tions informatiques du magazine Scientific American. Il s’agît sans doute du premier
jeu où l’implication du joueur se limite uniquement à la création de sa créature et
ensuite à la laisser faire ce qu’elle a à faire. En effet, le concept est simple :
- le but du jeu est d’annihiler son adversaire ;
- on dispose d’un programme avec un langage assembleur simplifié (quelques
commandes uniquement) appelé Redcode ;
- chaque créature est une suite d’instruction en Redcode de quelques lignes de
code seulement ;
____________________
1 OPARIN (44)
2 ZAUG ET CECH (7)
3 Voir Annexe : ADN
Vie Naturelle et Artificielle : Apports à la Science 2011
35
- l’environnement où vont évoluer les créatures est représenté par une suite de 8000
adresses mémoires, et ce de manière circulaire (espace toroïdal). Il s’agît d’une
machine virtuelle répondant au nom de code MARS1 ;
- la créature doit donc s’approprier MARS.
Les créatures créées à l’origine par DEWDNEY sont très simples : Dwarf (le nain)
en quatre instructions et Imp (le lutin) en une seule. Cependant, ils ont des comporte-
ments intéressants : le premier bombarde de zéros la mémoire, tandis qu’Imp avance
lentement mais surement et peut corrompre le code de Dwarf si jamais il touche sa
ligne de code vitale.
Il est possible de créer des créatures bien plus complexes : Raidar dispose d’une
zone de protection et partage son temps entre ses attaques et la réparation/vérification
de cette zone. Mice quant à lui se duplique à un autre endroit de la mémoire, et en-
suite lance le même processus sur sa copie, pour se multiplier à l’infini et remplir
MARS.
Core War est un simple jeu, très accessible, qui permet cependant de trouver une
bonne variété de créatures, qui peuvent parfois surprendre de par leurs agissements.
C’est pourquoi il a été la base des travaux de Steen RASMUSSEN concernant l’origine
de la vie.
Figure 22 - Core War : Mice VS Ferret
Source: http://www.youtube.com
____________________
1 MemoryArray Redcode Simulator
Vie Naturelle et Artificielle : Apports à la Science 2011
36
2.4.3 VENUS : EVOLUTION DE CORE WAR
En 1990, Steen RASMUSSEN s’approprie Core War pour avancer dans le domaine
de l’apparition de la vie : il reprend le concept de MARS mais avec seulement 3584
adresses mémoires. Il désigne son système VENUS1. Cependant, pour chaque adresse,
il existe un facteur environnement qui définit les ressources disponibles pour cette
adresse. Ces ressources sont le facteur vital pour la survie des créatures évoluant dans
VENUS.
Le deuxième critère très important qu’a ajouté RASMUSSEN à son système est le
« bruit », représenté de la manière suivante :
- soit par une mutation (cf. Algorithmes Génétiques) : lors d’une instruction de
copie, il est possible qu’une autre valeur soit copiée, entraînant une évolution de
l’individu (viable ou non) ;
- soit par la création de nouveaux éléments aléatoirement.
Bien qu’au final relativement complexe à prendre en main, VENUS a permis la
découverte d’enseignements très intéressants d’un point de vue biologique2 3 :
- l’émergence de structures intéressantes nécessite l’existence de fluctuations
locales dans le milieu ;
- même dans un environnement idéal, l’émergence de structures coopératives
n’est pas acquise, le système est très sensible à la contingence ;
- la vie n’est pas apparue dans le désert ;
- les structures efficaces impliquent certaines restrictions quant à leurs propres
fonctions primaires et sur leur mode d’utilisation du bruit
- l’émergence de structures coopératives semble être de grande importance dans
l’évolution de structures viables ;
- même des créatures fragiles sont aptes à trouver la stabilité.
« L’évolution qui a produit notre organisme […] est aussi correcte que l’évolution
biologique "réelle". Cependant, les propriétés primaires de ces structures
informatiques sont bien loin des fonctions des cellules biologiques vivantes4 ».
____________________
1 Virtual Evolution in a Nonstochastic Universe Simulator
2 RASMUSSEN S. ET AL. 1990 (10)
3 RENNARD J.-P. (8)
4 EMMECHE C. (9)
Vie Naturelle et Artificielle : Apports à la Science 2011
37
2.4.4 TIERRA : NOUVEAU MODELE POUR LA VIE ARTIFICIELLE
CREATION DE TIERRA
Biologiste spécialiste des systèmes tropicaux, Thomas S. RAY ne s’imaginait pas
qu’en créant son système Tierra, basé sur Core War, il ferait l’une des décou-
vertes les plus importantes tant d’un point de vue de la vie artificielle que naturelle.
RAY s’intéressait tout particulièrement à l’explosion cambrienne1, il a donc créé
Tierra dans le but de démontrer le potentiel de diversification évolutive du
Cambrien. Il voulait créer un monde proche du cambrien, et même si Tierra
s’apparentait plus à un monde d’ARN, les résultats ont été probants : dès les premières
heures, Tierra a engendré des processus que l’on aurait pu penser être réservés au
monde réel. Le concept de RAY était simple :
« I imagined: start with self-replication, then add mutation, and get evolution2. »
Cependant, avec ses connaissances limitées en informatique, ce n’est que dix ans
plus tard qu’il décide de se lancer sur ce projet au concept simple, mais extrêmement
complexe à réaliser. Après en avoir discuté avec les chercheurs du domaine de la vie
artificielle, la plupart de ceux-ci (dont LANGTON) se sont montrés très réticents quant à
ce que proposait RAY. Seul Steen RASMUSSEN s’est montré enthousiaste. Quelque
mois plus tard, RAY démarra Tierra.
FONCTIONNEMENT
Le principal problème soulevé par les autres chercheurs était la quasi impossibilité
d’avoir un système stable avec les instructions présentes dans VENUS. En effet, même
avec 10 instructions, si l’on ajoute les opérandes (ou arguments des fonctions en
assembleur)3, on se retrouve dans un espace de codage de l’ordre de 10
11, multiplié par
les soixante-quatre codons de l’ADN (ou vingt acides aminés).
RAY a donc décidé de simplifier le code radicalement : il s’est débarrassé des
opérandes et a créé un langage universel4. Ainsi, à l’instar du fonctionnement des cel-
lules biologiques, RAY propose un « mode d’adressage par gabarit ». Un gabarit est
une suite d’instructions particulières de type NOP (no operation, donc pas une
instruction à proprement parler). Lors de la rencontre d’une instruction (telle que
JMP), le programme va chercher (avant ou après) dans la mémoire la première
____________________
1L'Explosion Cambrienne désigne l'apparition soudaine à l'échelle des temps géologiques d'anatomies
entièrement nouvelles qui préfigurent déjà les grands groupes d'animaux actuels. (14) 2Traduction : « J’imaginais : commencer avec l’autoréplication, ajouter la mutation et on obtient l’Evolution. »
(15) 3 Dans l’instruction « MOV A B », A et B sont les opérandes (arguments)
4 Au sens de Turing (45)
Vie Naturelle et Artificielle : Apports à la Science 2011
38
occurrence de la séquence complémentaire au gabarit, à l’instar d’une protéine agis-
sant avec une protéine complémentaire dans le monde réel.
De plus, pour une meilleure analogie biologique, chaque créature de Tierra pos-
sède un espace mémoire protégé où aucune autre créature ne peut écrire. Cependant,
celles-ci peuvent lire et exécuter les instructions de cet espace.
Tierra dispose de parallélisme : un certain nombre d’instructions peuvent être
exécutées à chaque cycle en fonction de la taille de l’individu. Ray a ajouté un algo-
rithme (ou plutôt un virus de type ver) chargé de détruire les créatures les plus
anciennes, combiné à un processus accélérant le vieillissement des créatures
engendrant des erreurs d’exécutions (non adaptées au milieu).
Grâce à ces algorithmes, on dispose d’un système évolutionnaire. Qui dit système
évolutionnaire dit mutations, RAY y a donc ajouté différents types de mutations, telles
que des erreurs de réplication ou des passages de bits d’une valeur à une autre.
ANCETRE ET PARASITES
La première créature de RAY a été baptisée « ancêtre » : il s’agît d’une créature
autoréplicatrice de taille 80 (quatre-vingt instructions), permettant de faire les tests. Il
pensait sincèrement devoir mettre des années afin d’arriver à des résultats, mais il
observa très rapidement des créatures de taille 79. Plus petites, donc plus perfor-
mantes, elles ont commencé à dominer l’espace mémoire. Ce que RAY voulait faire
s’était donc produit, ses créatures évoluaient pour devenir plus performantes.
Ce à quoi il ne s’attendait pas, ce fut l’apparition d’individus de taille 45. Pour lui,
la taille 60 était assurément le minimum possible pour qu’une créature puisse toujours
se reproduire, alors comment un individu de cette taille avait-il pu apparu ?
En réalité, ces créatures étaient incapables de se reproduire, mais utilisaient la
séquence de réplication qui se trouvait chez un ancêtre proche. Il s’agissait d’un
parasite. RAY a donc créé à une vitesse hallucinante les parasites, créatures que l’on
pensait réduite au monde réel. Plus tard, des créatures immunisées à ce parasite
apparurent, utilisant un système assimilable à celui de la bactérie E. Coli pour se
protéger des virus bactériophages.1
« Basiquement, l’évolution est un processus égoïste […] et le succès se limite à
laisser un maximum de vos gènes aux générations futures. Cependant, l’évolution est
très inventive lorsqu’il s’agît d’atteindre le but ultime. L’évolution prend bêtement
avantage de tout ce qui est disponible dans l’environnement de l’organisme. »2
____________________
1 ADAMI, C. (17)
2 RAY, T. (15)
Vie Naturelle et Artificielle : Apports à la Science 2011
39
SOCIALITE
Tierra ne s’est pourtant pas arrêté là, puisque des nouvelles créatures quasiment
indestructibles sont apparues : les hyperparasites. Une fois que ceux-ci ont « dominé
le monde », de nouveaux organismes sont apparus, démontrant un nouveau type de
comportement : des individus de taille 61 ont appris à partager leurs instructions, et
ont pu ainsi se reproduire en groupe.
Plus le monde évoluait, et plus les mécanismes découverts étaient intéressants. Le
plus intéressant a certainement été l’apparition de sexualité chez les créatures de
Tierra.
AVANCEES
Tierra a donc été l’une des avancées majeures tant en terme de Vie Artificielle
que Biologie évolutionnaire théorique, étant donné la simplicité avec laquelle RAY a
été capable de créer des mécanismes complexes, dont on n’avait aucune idée de la
provenance jusqu’alors.
D’après Steen RASMUSSEN, il est possible de mieux comprendre notre monde réel
en étudiant les détails des différentes réalités artificielles, en se basant sur ses
définitions de la vie1. Cependant, cela ne fait pas l’unanimité parmi les scientifiques.
Figure 23 – Tierra.
Dans la légende, les tailles des créatures
____________________
1 Cité dans LEVY S. (16)
Vie Naturelle et Artificielle : Apports à la Science 2011
40
3 LE FUTUR DE LA SCIENCE : RECHERCHE
Comme nous l'avons vu, biologie et informatique sont en étroite collaboration pour
fournir leur meilleur à la Science. Grâce aux techniques utilisées en Intelligence
Artificielle, l'étude de phénomènes physiques, biologiques et autres est possible.
Cependant, avons-nous encore de l'inspiration pour trouver de nouvelles
techniques, ou sommes-nous en train de nous essouffler ? La recherche actuelle dans
le domaine de l'intelligence artificielle répond à cette question : partout dans le monde,
la compréhension des phénomènes naturels par la vie artificielle est toujours d'actua-
lité, et ne semble pas vouloir s’arrêter de sitôt.
3.1 GENOME
La recherche actuelle semble beaucoup s'intéresser au génome humain. Véritable
mystère par moments, la clé de la compréhension biologique semble aujourd'hui à
notre portée plus que jamais.
Les travaux réalisés à Stanford sur le génome humain sont très intéressants pour le
futur de la Science. Le groupe du professeur BATZOGLOU1 s’intéresse notamment aux
algorithmes et aux systèmes de calcul appliqués à la génomique. En utilisant le
système Multi-Lagan (MLAGAN)2, les scientifiques peuvent aligner et comparer
des séquences ADN entières d’humains, de souris, de rats et autre organismes vivants.
Cela permettrait, entre autres, de découvrir des éléments qui sont inévitablement liés
au processus d’évolution, comme certains sites de gènes.
D'un autre côté, toujours à Stanford, le laboratoire de BEJERANO se concentre sur
l'exploitation de la génomique comparative de l'homme3 et de ses espèces apparentées,
dans le but d’améliorer notre compréhension du développement embryonnaire humain.
En effet, des recherches récentes ont récemment mis en évidence plusieurs milliers
de régions du génome humain n’ayant encore jamais été étudiées. Ces régions
semblent adopter le contrôle des allocations des ressources nécessaires pendant le
développement embryonnaire humain. Parmi celles-ci, il y a celles découvertes par le
professeur BEJERANO : les régions des « éléments ultraconservés »4. Il s’agît sans
doute, selon lui, des régions les plus mystérieuses du génome humain. L’approche
informatique compte beaucoup sur le « machine learning ».
____________________
1 BATZOGLOU, S. (48)
2 AGAN Alignment Toolkit Website (49)
3 La génomique comparative est l'étude comparative de la structure et fonction des génomes de différentes
espèces. 4 MCLEAN C.Y., BRISTOR D., HILLER M., CLARKE S.L., SCHAAR B.T., LOWE C.B., WENGER A.M., BEJERANO G. (24)
Vie Naturelle et Artificielle : Apports à la Science 2011
41
3.2 VISION DU MONDE NATUREL PAR LES ORGANISMES ARTIFICIELS
Tandis que les films regorgent de séquences en images de synthèses toujours plus
réalistes, trompant parfois l’œil du spectateur1, il est beaucoup plus complexe pour un
ordinateur de bien comprendre le monde qui l’entoure. C’est le stade de la
visualisation. Le laboratoire des Systèmes Intelligents de l’EPFL (Ecole Polytechnique
Fédérale de Lausanne) a dirigé ses recherches sur ce qu’ils ont appelé : la « vision
active »2.
Les robots d’aujourd’hui sont presque tous équipés de censeurs de vision, et
certains se déplacent sur des terrains difficiles par l’intermédiaire de roues ou de
pattes. Cependant, les méthodes d’Intelligence Artificielle, sont loin d’être prêtes à
traiter toutes les informations récupérées à travers ces censeurs, alors qu’il y a besoin
de prendre des décisions (des actions) rapides dans des environnements parfois
inconnus et/ou dynamiques.
L’utilisation de voitures conduites par une intelligence artificielle est un exemple
typique de la nécessité d’avoir une réactivité parfaite de la part du « conducteur ». La
vision active omnidirectionnelle se révèle particulièrement performante pour la
détection des fonctionnalités en rapport à la situation actuelle.
Au début, pendant que la « rétine » cherche la meilleure fonctionnalité (ce qui peut
mettre un peu de temps), la voiture avance et recule doucement pour rester en position.
Une fois la fonctionnalité trouvée, la voiture part à vitesse maximum, et peut éviter
toute piste difficile.
« Des recherches précédentes ont montré que des tâches visuelles complexes,
comme la reconnaissance de formes insensible aux variations de taille et de position
ainsi que la navigation, peuvent être approchées par des architectures neurales
remarquablement simples générées par un processus d’évolution conjoint de vision
active et de sélection de caractéristiques. Des machines comportementales équipées
de systèmes de visions primitifs et de connexions directes entre les neurones moteurs
et visuels ont été évoluées en interagissant librement avec leurs environnements. »3
____________________
1 Notamment le film « L’étrange histoire de Benjamin Button » sorti en 2008, où la première partie du film, le
visage de Brad Pitt âgé est en réalité fait d’images de synthèse. Le résultat est impressionnant, puisque plus
réaliste qu’un masque en latex. 2 Suzuki, M. , Floreano, D. (25)
3 Suzuki, M. , Floreano, D. (25)
Vie Naturelle et Artificielle : Apports à la Science 2011
42
3.3 NOUVELLE CONCEPTION DE L’INTELLIGENCE ARTIFICIELLE
On ne peut minimiser les progrès fantastiques réalisés par le domaine de l’intelli-
gence artificielle, sous ses différentes formes et origines. Rappelons qu’en 1937, Alan
TURING propose une machine abstraite et universelle qu’il baptisa « Machine de
TURING »1, capable de résoudre des problèmes que ni hommes ni machines ne
pouvaient résoudre jusque-là. Dès lors, les scientifiques se sont acharnés à poursuivre
sur cette voie pour trouver des automates informatiques plus poussées, faisant peu à
peu apparaître les techniques que l’on peut voir aujourd’hui, et qui ont été décrites
précédemment.
3.3.1 INTELLIGENCE GLOBALE ARTIFICIELLE
Alors que la recherche en intelligence artificielle française rencontre des difficultés
pour financer ses travaux, les Etats-Unis (comme nous l’avons vu) et la Chine
progressent à une vitesse fulgurante. En effet, grâce à Hugo DE GARIS, chercheur
australien dirigeant l’Artificial Brain Lab de l’université Xiemen depuis sept ans, la
Chine serait disposée à fournir les moyens à la recherche en intelligence artificielle
pour la création d’une intelligence générale artificielle (AGI) :
« Le Professeur Hugo DE GARIS a récemment reçu 3 millions de Yuan, soit 4 ans de
subvention, pour construire le premier cerveau artificiel chinois, à partir de 2008. »2
Etant donnée la tendance économique actuelle3, il ne serait pas improbable de voir
la première AGI naître sur le sol chinois, au grand dam des Etats-Unis. Rappelons que
les Etats-Unis est l’endroit où l’intelligence artificielle a fait ses premiers pas et où elle
est actuellement la plus au point. Alors pourquoi la Chine ? La réponse est simple : la
Chine n’est plus enfermée dans ses traditions et s’ouvre très rapidement à la science et
aux nouvelles technologies, à l’inverse de l’Occident qui reste très enfermé dans
certains concepts religieux, méfiant à l’égard des intelligences artificielles. La Chine
au contraire, semble embrasser celles-ci.
Restons toutefois prudents quant aux allégations du professeur DE GARIS, puisque
même si la bonne foi du scientifique et les moyens sont là, l’homme reste une
personnalité très controversée dans le domaine de l’intelligence artificielle. En effet,
parfois DE GARIS se retrouve plus en position d’auteur de romans de science-fiction
que de chercheur scientifique objectif, ce qui lui a valu la notoriété (qu’il n’hésite pas
à revendiquer) de prophète de l’intelligence artificielle du futur. Il a également une
réputation d’homme ne tenant pas ses promesses : alors qu’il annonçait fièrement en
1993, qu’en l’an 2000 il serait sans aucun doute capable de produire un cerveau
____________________
1 Voir Annexe
2 de Garis, H. et Al. (34)
3 En février 2011, la Chine devient la 2
ème puissance économique mondiale, après les Etats-Unis, devançant le
Japon
Vie Naturelle et Artificielle : Apports à la Science 2011
43
artificiel à un milliard de cellules, il se retrouva en 2001 avec un cerveau artificiel à
« seulement » quarante millions de cellules. En plus, ledit cerveau effectuait des
traitements qu’un réseau de dix neurones formels pouvait égaler.
Soyons cependant optimistes quant à l’AGI, qui reste une idée très intéressante, et
surtout à suivre de près dans les années à venir.
3.3.2 MIND MACHINE PROJECT
A l’Institut de Technologie du Massachussetts (MIT), on prend le problème à
l’envers : alors que les scientifiques de l’intelligence artificielle de par le monde vont
de plus en plus loin pour faire avancer ce domaine, des scientifiques de l’institut tech-
nologique le plus connu au monde veulent tout reprendre à zéro. C’est du moins ce
que veut faire le docteur Newton HOWARD, chercheur principal au MIT, et directeur
du projet qu’il a intitulé le Mind Machine Project (Projet de la Machine Esprit).
Pourquoi tout reprendre à zéro ? Selon les chercheurs du projet, l’évolution de
l’intelligence artificielle dans le même sens depuis la « Machine de TURING » doit
cesser, puisque l’avancée en devient minime1:
« L’architecture des ordinateurs n’a pas changé considérablement depuis 19452,
mais la façon dont les ordinateurs sont fabriqués et utilisés a complètement changé.
En conséquence, les fréquences des ordinateurs n’ont pas augmenté depuis 2004.3 »
Ils veulent réinterpréter l’intelligence artificielle avec de nouveaux concepts, et
surtout, avec les machines d’aujourd’hui. En effet, les machines actuelles sont bien
loin de ce que l’on trouvait à l’époque (cf. Parallèle : Evolution de la puissance des
ordinateurs) dont TURING ou VON NEUMANN ne pouvaient que rêver.
C’est ainsi qu’avec un budget de cinq millions de dollars pour un projet programmé
pour cinq ans, les scientifiques du MIT se lance dans la folle aventure de tout
réinventer, en basant cette intelligence artificielle sur quatre concepts qui nous sont
très familiers4 :
L’ESPRIT
« Développer un modèle logiciel capable de comprendre les contextes sociaux
humains et ses indicateurs ainsi que les comportements et conventions associés à
ceux-ci. »
Le cerveau humain s’est formé au cours de millions d’années d’évolution pour
devenir un ensemble complexe de systèmes et fonctions très différents les uns des
____________________
1 Rala Website (50)
2 Von Neumann, J. (23)
3 IT World Website (51)
4 MMP Website (52)
Vie Naturelle et Artificielle : Apports à la Science 2011
44
autres. Dans la recherche en intelligence artificielle, on cherche à reproduire ce
concept en créant des solutions dispersées qui donnent de bons résultats dans des cas
précis. L’idée serait de les regrouper et ainsi avoir une base pour une intelligence
artificielle générale.
LA MEMOIRE
En informatique, on évite toujours un maximum l’ambiguïté dans les données, à
l’inverse de notre cerveau qui a stocké une quantité phénoménales de données au long
de sa vie. De plus, celui-ci est capable de s’y retrouver sans algorithme précis. Il est
tout à fait contre-productif, si l’on cherche à créer un cerveau artificiel, d’utiliser des
processus rigoureux et trop pertinents.
« Les ordinateurs doivent trouver le moyen de travailler avec l’ambiguïté et
l’inconsistance.1 »
LE CORPS
Les ordinateurs ont toujours été programmés pour exécuter des séquences de lignes
de code les unes après les autres. Cependant, l’esprit ne fonctionne pas du tout de cette
manière : dans celui-ci, tout peut arriver n’importe quand.
« La science des ordinateurs et la science de la physique ont divergé il y a quelques
dizaines d’années.2 »
Une nouvelle approche de la programmation, appelée RALA3 4 tente de pallier au
problème en représentant les calculs sous forme d’unités physiques de temps et
d’espace. Grâce à cela, on aurait un système qui coïncide avec sa propre description, à
l’instar du cerveau.
LE CERVEAU ET INTENTIONS
Les scientifiques du Mind Machine Project veulent étudier le mode de
réalisation des intentions dans le système neuronal. Cela inclue les composants des
« wet laboratories5
», les composants des cliniques, ainsi que la modélisation
mathématique. L’idée est de développer les capacités fonctionnelles du cerveau et
l’interface avec les neurones en utilisant des modèles basés sur les intentions pour
faciliter la représentation et l’échange d’informations.
Certes, mais dans quel but ? L’une des applications évoquées serait de fournir une
assistance aux personnes souffrant de maladies mentales dégénératives telle la maladie
____________________
1 Gershenfeld, N., rapporté par MIT news (36)
2 Gershenfeld, N., rapporté par MIT news (36)
3 Reconfigurable Asynchronous Logic Automata – Automate logique asynchrone reconfigurable
4 Gershenfeld, N. et Al. (35)
5 « wet » représente l’approche biologique de l’informatique. Traduction littérale: laboratoire humide.
Vie Naturelle et Artificielle : Apports à la Science 2011
45
d’Alzheimer. Le concept est le suivant : le système surveille les fonctions du cerveau
et détermine quand le patient a besoin d’aide. Imaginons qu’une personne entre dans la
chambre du patient, le système affichera des informations sur cette personne.
Si une telle chose voit le jour, on pourrait même imaginer avoir une augmentation
des capacités cognitives d’individus sains, où le système pourrait afficher des
informations qu’il irait chercher sur Internet, à l’instar d’une application sur un
Smartphone, mais qui se lancerait d’elle-même. Les applications sont nombreuses,
même si elles restent à l’état d’idées.
3.3.3 UN FUTUR INCERTAIN
Les deux projets que nous venons de voir, AIG et MMP sont certainement les deux
projets du futur les plus importants en Intelligence Artificielle. Bien que les deux
soient relativement antagonistes dans leur démarche, on ne peut que souligner l’effort
des scientifiques à toujours vouloir faire évoluer notre vision de la vie artificielle.
La question est donc : doit-on continuer de chercher dans la même direction, ou
doit-on changer radicalement notre façon de penser pour continuer d’avancer ?
Vie Naturelle et Artificielle : Apports à la Science 2011
46
CONCLUSION
Avec les algorithmes actuels que nous avons détaillés, tels les réseaux de neurones et les
algorithmes génétiques pour ne citer qu’eux, les chercheurs disposent à présent une base
solide pour représenter les aspects élémentaires des êtres vivants. Cela va de l’évolution à la
reproduction en passant par l’apprentissage.
Les systèmes qui ont été créés par les scientifiques au fur et à mesure des années étaient
d’abord flous, puis se sont précisés pour devenir finalement plus simples, et par conséquent,
plus compréhensibles. L’approche est maintenant principalement orientée de manière à créer,
en assemblant les algorithmes, des créatures virtuelles plus abouties et ainsi simuler des
comportements de plus en plus semblables au vivant.
Il sera certainement un jour possible, grâce à ces créatures artificielles, de permettre à la
biologie théorique qui est basée sur les connaissances empiriques acquises à partir des créa-
tures vivant sur terre, de ne plus simplement comprendre la vie de la manière dont nous la
connaissons mais de la manière dont elle pourrait être1. Il sera en effet tout à fait possible de
créer un environnement semblable à Mars, y placer des créatures, et observer la manière dont
elles vont évoluer sur cet environnement totalement différent.
Le domaine de la science n’est pas le seul concerné par l’évolution de l’intelligence artifi-
cielle. En effet, les gouvernements commencent à s’interroger sur les changements pouvant
être apportés par ce domaine, et surtout jusqu’à quel point ces changements se feront. La
grande peur des machines, qui s’inscrivait jusqu’alors uniquement dans les romans et films de
science-fiction, commence à apparaître un peu partout dans le monde réel.
Cette peur a un nom : la singularité technologique. Il s’agît du moment où les intelligences
artificielles seront aussi intelligentes que l’être humain. On se rend compte que la singularité
préoccupe d’une part les gouvernements et d’autre part les scientifiques. En 2009, en Califor-
nie, l’Association pour l’Avancement de l’Intelligence Artificielle émet des doutes quant à la
progression de la recherche qui pourrait mener un jour à la perte de l’emprise humaine sur les
systèmes informatique2. C’est également le cas de la Corée du Sud, où le ministre de l’infor-
mation et de la communication a annoncé en 2007 qu’il allait créer une « Charte éthique pour
les robots », reprenant en grosse partie les trois lois d’ASIMOV3.
Selon KURZWEIL, le principe de singularité technologique a été introduit par de VON NEU-
MANN en 1950, et est devenue célèbre un peu plus tard. Aujourd’hui, nombreux sont les
personnes qui tentent de prédire le jour où les machines seront aussi intelligentes que les hu-
mains, et KURZWEIL en fait partie. D’après l’évolution des ordinateurs et supercalculateurs
depuis quelques années, les futurologues misent sur la troisième décennie du XXIème
siècle.
En effet, en ne misant que sur la puissance de calcul brute du cerveau humain, la vitesse des
____________________
1LANGTON C.G. (33)
2 Ethical & Social Implications of AI for Society (53) (en anglais)
3 Robotic age poses ethical dilemna (54) (en anglais)
Vie Naturelle et Artificielle : Apports à la Science 2011
47
superordinateurs actuels devrait atteindre celle de notre cerveau en 20211 (cf. Parallèle :
Evolution de la puissance des ordinateurs).
Qu’en serait-il de l’homme après la singularité ? C’est là toute la question à laquelle les
romanciers de science-fiction sont les premiers à répondre. Pour certains, l’être humain
disparaîtra entièrement ou en partie, détruit par les machines qu’il aura créées (comme DE
GARIS2), pour d’autres, les pensées des humains seront transférés dans des intelligences
artificielles, étant donné que l’on peut déjà transférer la mémoire de l’homme, du moment que
la capacité de stockage soit suffisante.
Le futur tel que nous l’imaginions il y a de cela quelques dizaines d’années est proche,
mais va-t-il être exactement comme nous le pensons ?
____________________
1 YUDKOWSKY, E. (46)
2 DE GARIS, H. (37)
Vie Naturelle et Artificielle : Apports à la Science 2011
- 1 -
4 ANNEXES
4.1 RAPPELS DE BIOLOGIE
4.1.1 ADN
L’acide désoxyribonucléique, ou ADN, est une molécule présente dans toutes les
cellules vivantes et renferme l'ensemble des informations nécessaires au dévelop-
pement et au fonctionnement d'un organisme. C'est aussi le support de l'hérédité car il
est transmis lors de la reproduction, de ma-
nière intégrale ou non. Il porte donc
l'information génétique et constitue le gé-
nome des êtres vivants.
La molécule d’ADN est une structure en
hélice, composée de molécules appelées
nucléotides. Chaque nucléotide est com-
posé de trois éléments : un groupe phos-
phate, un sucre, et une base azotée. Il existe
quatre bases azotées différentes : adénine,
thymine, guanine, cytosine. Chaque nucléo-
tide va par pair sur la chaîne d’ADN, et
donne la structure ci-contre.
L'ADN détermine la synthèse des pro-
téines, par l'intermédiaire de l'ARN, et remplit les fonctions suivantes :
1. stocker l'information génétique, qui représente l’information déterminant le
développement et le fonctionnement d'un organisme. Cette information est
contenue dans l'enchaînement non-aléatoire de nucléotides.
2. la transmission de cette information de génération en génération. Cela permet
l'hérédité.
3. l'information portée par l'ADN peut se modifier au cours du temps. Cela aboutit
à une diversité des individus et à une évolution possible des espèces. Cela est dû
à des mutations dues principalement à des erreurs lors de la réplication des
séquences de l'ADN (ajout, délétion ou substitution de nucléotides), ou bien à
des recombinaisons génétiques (enjambements / crossovers).
L'ADN est donc le support de l'information génétique mais aussi le support de ses
variations. En subissant les effets de la sélection naturelle, l'ADN permet l'évolution
biologique des espèces.
Figure 24 - Structure de la molécule d'ADN
Vie Naturelle et Artificielle : Apports à la Science 2011
- 2 -
4.1.2 GENETIQUE ET EVOLUTION
ORIGINE
La génétique est la science qui étudie l'hérédité et les gènes. Nous nous intéressons
en particulier à la génétique formelle, qui étudie les caractères héréditaires entre gé-
niteurs et descendance pour mieux comprendre l’évolution. L'évolution désigne la
transformation des espèces vivantes qui se manifeste par des changements de leurs
caractères phénotypiques au cours des générations. Les changements successifs peu-
vent aboutir à la formation de nouvelles espèces.
Il s’agît d’un concept très ancien, mais ce n’est qu’à partir de 1859 et la publication
de l’origine des espèces de Charles Darwin1 que la théorie de l’évolution s’est impo-
sée dans la communauté scientifique.
Pour expliquer les changements des espèces au fil des années, il arrive à la
conclusion suivante : les espèces ne sont pas des catégories fixes mais se diversifient
avec le temps, voire disparaissent. Pour expliquer ces changements, il propose le
principe de la sélection naturelle ou le concept de la survie du plus apte.
MEIOSE
La division cellulaire est certainement le processus le plus fondamental des êtres
vivants. Il en existe deux types : mitose et méiose. La deuxième concerne notamment
la production des gamètes (cellules sexuelles) et est en relation directe avec
l’évolution. En effet, ce sont les gamètes qui fournissent la base de l’embryon, donc la
base de la génération suivante. Chez les végétaux, la méiose produit des spores tandis
qu’elle se déroule pendant l’élaboration des gamètes chez les animaux.
La méiose est très importante puisqu’elle est
responsable du brassage génétique (mélange
des gènes) qui opère à deux niveaux : brassage
interchromosomique et intrachromosomique.
C’est cela qui produit la diversité des êtres
vivants, notamment chez l’être humain où
chaque individu est différent.
La méiose agît directement sur les
chromosomes, qui sont des éléments
microscopiques constitués d’ADN. Ils sont
formés de deux chromatides, reliées par un
centromère. Chaque chromatide est formé de
deux bras. L’être humain est constitué de 2n chromosomes (avec n = 23).
____________________
1 DARWIN, C. (1)
Figure 25 - Schéma de chromosome
Vie Naturelle et Artificielle : Apports à la Science 2011
- 3 -
Figure 26 - Méiose étape par étape
Le fonctionnement de la méiose se déroule en deux parties, chacune composée de
quatre sous parties :
PROPHASE I
Phase la plus importante d’un point de vue de l’évolution. En effet il s’agît du
moment où il y a des enjambements (crossover). L’enjambement correspond au
moment où deux chromatides homologues (donc de la même pair) échangent une
partie de leurs gènes. L’endroit où les chromatides se touchent est appelé « chiasme »,
et les tous les gènes du chromatide avant ou après ce chiasme seront échangés avec
l’autre chromatide de la paire.
On parle d’enjambement simple lorsqu’il y a un seul chiasme, et d’enjambements
multiples lorsqu’il y en a plusieurs. A la fin, l’enveloppe nucléaire enveloppant les
chromosomes dans la cellule disparaît. C’est un brassage intrachromosomique.
Figure 27 – Schéma d’un enjambement simple
Vie Naturelle et Artificielle : Apports à la Science 2011
- 4 -
METAPHASE I
Les chromosomes se placent aléatoirement de part et d’autre du plan équatorial de
la cellule. Le plan équatorial représente une ligne qui coupe la cellule en deux. On
parle de brassage interchromosomique.
ANAPHASE I
Phase durant laquelle les deux chromosomes s’éloignent du centre pour se déplacer
aux extrémités de la cellule.
TELOPHASE I
Réapparition des enveloppes nucléaires. On a désormais deux cellules à 2n
chromosomes.
PROPHASE II
Phase identique à la prophase I. Il y a également des enjambements.
METAPHASE II
Phase identique à la métaphase I, à ceci près qu’il n’y a qu’un seul chromosome
dans la cellule. Il positionne son centromère sur le plan équatorial, et les deux chroma-
tides se séparent, et se placent (là encore aléatoirement) de part et d’autre de la cellule.
ANAPHASE II
Phase identique à l’Anaphase I.
TELOPHASE II
Phase identique à la Télophase I.
Avant la méiose, la cellule disposait des informations des deux parents : deux paires
de chromosomes, une paire de la mère, une paire venant du père. Nous avions donc
deux paires de 23 chromosomes à deux chromatides, donc 96 chromatides en tout.
Une fois le processus terminé, nous disposons de quatre cellules à 23 chromosomes
à une chromatide, ce qui fait également 96 chromatides. Nous n’avons rien perdu,
mais le hasard et les enjambements ont fourni de quoi créer de nouveaux individus,
qui disposent des caractéristiques des deux parents, sans pour autant être des copies.
Vie Naturelle et Artificielle : Apports à la Science 2011
- 5 -
4.1.3 NEURONES ET RESEAUX DE NEURONES
CERVEAU HUMAIN
Le cerveau humain est organisé de la façon suivante :
Figure 28 - Organisation du cerveau humain
De plus, il fonctionne à trois étages : récepteurs, réseaux neuronaux et effecteurs.
Le cerveau reçoit des informations, les enregistre, et prend les décisions appropriées. Il
y a donc une action à double sens sur l’environnement du cerveau.
NEURONES
Le neurone est une cellule du système
nerveux spécialisée dans la communi-
cation et le traitement d'informations.
Chaque neurone est composé d'un
corps cellulaire comportant un noyau,
ainsi que deux types de ramifications :
les dendrites pour les entrées et un axone
pour la sortie.
Molécules
Synapses
Micro-circuits neuronaux
Arbres dentritiques
Neurones
Circuits locaux
Macro-circuits neuronaux
Système nerveux central
Stimulus Récepteurs Réseaux
neuronaux Effecteurs Réponses
feedback information
Figure 29 - Schéma d'un neurone
Vie Naturelle et Artificielle : Apports à la Science 2011
- 6 -
SYNAPSES
Les axones et dendrites des neurones différents entrent en contact via des structures
spécialisées appelées synapses. Les synapses du cerveau sont en général chimiques, et
utilisent des neurotransmetteurs pour
transmettre l’information.
L’influx nerveux ou potentiel action
est transmis le long d’un neurone sous la
forme d’une séquence dépolarisations
transitoires. Au niveau d’une synapse
chimique, l’information change de
nature, elle est transmise par une
libération de neurotransmetteurs dans
l’espace synaptique.
En réalité, il faut que la somme des
dépolarisations d’action soit suffisam-
ment importante pour que le signal se
transmette à l’autre neurone. En effet, si
la somme des dépolarisations ne dépasse pas un certain seuil, rien ne se passera1.
APPRENTISSAGE
Chaque structure est dotée d'une fonction particulière et ces structures adaptent leur
comportement par des mécanismes d’apprentissage. L’apprentissage implique des mo-
difications physiques des connexions entre neurones.
____________________
1 Touzet, C. (47)
Figure 30 - Schéma d'une synapse
Vie Naturelle et Artificielle : Apports à la Science 2011
- 7 -
4.2 INFORMATIQUE
4.2.1 MACHINE DE TURING
Une machine de TURING est une abstraction d’un ordinateur. Elle se compose de
trois parties1 :
- d'une bande infinie sur laquelle se trouvent écrits des symboles ;
- d’une partie de contrôle constituée d'un nombre fini d'états possibles et de transi-
tions qui régissent les calculs de la machine ;
- d’une tête de lecture qui lit et écrit les symboles de la bande.
Fig. 1 : machine de Turing
ANALOGIE AVEC L’ORDINATEUR ACTUEL
La partie de contrôle représente le microprocesseur. Un élément essentiel de la
machine de TURING est que le nombre d'états est fini, de la même façon que les
microprocesseurs possèdent un nombre déterminé de registres d'une taille fixe. Ainsi,
le nombre de configurations possibles est lui aussi fini.
La bande représente la mémoire de l'ordinateur. Ceci comprend la mémoire
centrale ainsi que les mémoires externes telles les disques durs.
La tête de lecture représente le bus qui relie le microprocesseur à la mémoire.
Contrairement à un ordinateur, la mémoire d'une machine de Turing est infinie.
Une autre différence entre une machine de Turing et un ordinateur est qu’une
machine de Turing ne se déplace que d'une position à chaque opération et ne peut
accéder à une adresse mémoire spécifique comme l'ordinateur.
PRINCIPE
Le contrôle de la machine est constitué d'un nombre fini d'états {q0, …, qn}. À
chaque instant, la machine se trouve dans un de ces états. Au départ, la machine se
trouve dans l'état q0 qu'on appelle état initial. Le calcul d'une machine de Turing est
formé d'une suite d'étapes de calcul qui sont effectuées par la machine. Chaque étape
consiste à changer l'état de contrôle, écrire un symbole sous la tête de lecture et
____________________
1 CARTON, O. (43)
Vie Naturelle et Artificielle : Apports à la Science 2011
- 8 -
déplacer la tête de lecture. Les étapes de calcul possibles sont décrites par les transi-
tions de la machine.
MACHINE DE TURING UNIVERSELLE
Il est possible de créer une machine de Turing qui puisse simuler le comportement
de n'importe quelle autre machine de Turing, on l'appelle « machine de TURING
universelle ».
4.2.2 ISAAC ASIMOV
Isaac Asimov était un écrivain américain, né en Russie en 1920. Il est surtout connu
pour ses œuvres de science-fiction, mais également pour avoir inventé le terme
« robotique ».
Pour lui, comme pour la plupart des auteurs anglo-saxons, les styles tourmentés ne
font que rebuter le lecteur. C'est donc l'histoire, et elle seule, qui est mise en avant. Il
fonde ses livres sur des dialogues entre protagonistes.
En 1950, il publie un livre intitulé Les Robots (I, Robot), où les robots sont régis par
trois lois, qui vont être connues après comme les lois d’Asimov1 :
- Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif,
laisser cet être humain exposé au danger. » ;
- Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si
de tels ordres sont en contradiction avec la Première Loi. » ;
- Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette
protection n'entre pas en contradiction avec la Première ou la Deuxième Loi. »
____________________
1 Asimov, I. (55)
Vie Naturelle et Artificielle : Apports à la Science 2011
- 9 -
4.3 APPLETS WEB
ALGORITHMES GENETIQUES :
- Genetic Algorithm Viewr (GAV) : http://www.rennard.org/alife/french/gav.html
- Le voyageur de commerce : http://www.rennard.org/iva/agapll.html
RESEAUX DE NEURONES
- Kohonen (voyageur de commerce, en anglais) :
http://www.patol.com/java/TSP/index.html
- Kohonen (voyageur de commerce en 3D, en anglais) : http://fbim.fh-
regensburg.de/~saj39122/jfroehl/diplom/e-sample.html
BOIDS
- Fourmis (anglais) : http://www.mcrit.com/complexity/applets/boid.html
- Reynolds (anglais) : http://www.red3d.com/cwr/boids/applet/
- Rennard : http://www.rennard.org/iva/boidapll.html
L-SYSTEMES
- Jessica Shepherd (en anglais) :
http://www.cs.utah.edu/~jshepher/java/Lsystems/Lsystems.html
AUTOMATES CELLULAIRES
Jeu de la Vie : http://www.math.com/students/wonders/life/life.html (cliquer sur
« Play Life » dans le panneau à droite de l’écran, en anglais)
CORE WAR
Site official (en anglais) : http://corewar.co.uk/
Vie Naturelle et Artificielle : Apports à la Science 2011
- 10 -
LEXIQUE
ADN (acide désoxyribonucléique) : molécule présente dans toutes les cellules vivantes,
renfermant les informations nécessaires au développement et au fonctionnement d’un
organisme
adresse mémoire : voir mémoire
algorithme : processus systématique de résolution d’un problème
ARN (acide ribonucléique) : une molécule très proche chimiquement de l’ADN, que les
cellules vivantes utilisent pour fabriquer les protéines dont elles ont besoin.
automate : dispositif se comportant de manière automatique, c'est-à-dire sans
intervention d'un humain
binaire : ne pouvant être égal qu’à 0 ou 1
cellule : est l'unité structurale, fonctionnelle et reproductrice constituant tout ou partie
d'un être vivant
cellules voisines : cellules étant en contact direct avec la cellule observée
chromosome : élément microscopique constitué de molécules d'ADN
cognitif : adjectif se rapportant aux grandes fonctions de l'esprit : perception, langage,
mémoire, etc.
contingence : données imprévisibles
convergence : s’approcher de la solution
croisement : voir enjambement
dépolarisation : passage transitoire du potentiel de membrane d'une valeur négative,
dites de repos, vers une valeur positive
dynamique : qui se fait au fur et à mesure de l’exécution du programme (inverse de
statique)
empirique : qui s’appuie exclusivement sur l’expérience et l’observation, sans suivre les
méthodes, les principes scientifiques
enjambement : phénomène génétique qui contribue au brassage génétique lors de la
reproduction (pour plus d’informations, voir Annexe)
entrée : valeur fournie au système (voir également sortie)
espace toroïdal : la première case de l’espace correspond à la case juste après la toute
dernière
exponentiel : qui augmente de plus en plus rapidement avec le temps
fonctionnement parallèle : deux systèmes ou plus peuvent fonctionner en même temps
gène : séquence ADN qui spécifie la synthèse d'un ARN fonctionnel.
génération spontanée : l’être humain et les animaux sont apparus sur Terre grâce à une
intervention divine
génome : ensemble du matériel génétique d'un individu ou d'une espèce codé dans son
ADN
génotype : ensemble ou partie donnée de la composition génétique d’un individu
instruction : opération élémentaire qu’un programme demande au processeur d’effectuer
itération : répétition d’un processus
Vie Naturelle et Artificielle : Apports à la Science 2011
- 11 -
jeu de Go : jeu d’origine chinoise où deux adversaires utilisent des pierres noires ou
blanches sur un tablier
linéaire : structure où les données sont agencées les unes après les autres
matériel génétique : voir ADN
mémoire (informatique) : dispositif électrotechnique qui sert à stocker des informations.
Celles-ci est composée d’adresses numériques, partant de zéro, jusqu’à la capacité
maximum de la mémoire.
mémoire associative : reconnaissance d’un motif mémorisé au préalable
morphogénèse : ensemble des lois qui déterminent la forme, la structure des tissus,
des organes et des organismes
mutation : modification irréversible de l’information génétique
optimisation : améliorer un outil pour trouver la solution à un problème plus rapidement
périodicité : aptitude qu'ont certains phénomènes à se reproduire à des époques
déterminées
phénotype : ensemble des caractères observables d'un individu. C’est l’expression
physique du génotype
récursivité : un algorithme qui contient un appel à lui-même est dit récursif
simulation : créer un système artificiel modélisant un problème pour mieux l’étudier
sortie : valeur fournie par le système (voir également entrée)
statique : doit être déclaré avant l’exécution du programme (inverse de dynamique)
synapse : désigne une zone de contact fonctionnelle qui s'établit entre deux neurones
synergie : valeur ajoutée suite à la coopération de deux entreprises, individus, concepts,
etc.
trivial : évident
ver : logiciel malveillant qui se reproduit sans programme hôte
Vie Naturelle et Artificielle : Apports à la Science 2011
- 12 -
BIBLIOGRAPHIE
1. Darwin, Charles. The Origin of species. 1859.
2. Tisserant, Alain. http://www.mines.inpl-nancy.fr/~tisseran/cours/algo-
genetique/genetique.html. Ecole des Mines de Nancy. [Online] Mai 1998.
3. Ladjadj, Rachid. http://www-igm.univ-mlv.fr. [Online] 2002.
4. Matussi, Claudio and Floreano, Dario. Bio-Inspired Artificial Intelligence.
Massachusetts : The MIT Press, 2008.
5. Pascal Ferraro, Christophe Godin. A distance measure between plant architectures.
Annals of Forest Science. 2000, p. 445.
6. Stewart, Ian. Life's Other Secret. The New Mathematics of Living World. 1998.
7. Cech, T.R. RNA as an enzyme. Scientific American. 255, 1986.
8. Rennard, Jean-Philippe. Vie Artificielle : Où la biologie rencontre l'informatique. Paris :
Vuibert, 2002.
9. Emmeche, C. The Garden in the Machine. s.l. : Princeton University Press, 1994.
10. Rasmussen, Steen. The Coreworld: Emergence and Evolution of Cooperative Structures
in Computational Chemistry. Physica D. 42, 1990.
11. Pitts, Warren S. McCulloch & Walter H. A logical calculus if the ideas immanent in
nervous activity. 1943.
12. Rumelhart, Hinton, Williams. Learning Internal Representations by Error Propagation.
1986.
13. Sutton, Richard S. Temporal credit assignement in reinforcement learning. 1984.
14. Vannier, Jean. L'Explosion Cambrienne. CNRS. [Online]
http://www.cnrs.fr/cw/dossiers/dosevol/decouv/articles/chap2/vannier.html.
15. Ray, Thomas S. How I created life in a virtual universe. [Online]
http://life.ou.edu/pubs/nathist/.
16. Levy, S. Artificial Life. The Quest for a New Creation. s.l. : Penguin Books, 1992.
17. Elena, S.F. Punctuated Evolution Caused by Selection of Rare Beneficial Mutations.
Science 272. 1802, Vol. 1996.
18. ULAM, Stanislas. Sets, Numbers and Universe. Cambridge : MIT Press, 1974.
19. Louis, Pierre-Yves. Thèse : Automates Cellulaires Probabilistes : mesures stationnaires,
mesures de Gibbs associées et ergodicité. 2002.
Vie Naturelle et Artificielle : Apports à la Science 2011
- 13 -
20. Packard, N. Deterministic Lattice Models for Solidification and Aggregation. 1985.
21. Gardner, M. The fantastic Combinations of John Conway's New Solitaire Game: "Life".
Scientific American. 1970, 223.
22. Berlekamp, E., Conway, J. H. and Guy, R. Winning Ways for your Mathematical Plays.
New York : Academic Press, 1982.
23. Goldstine, H. The Computer: from Pascal to von Neumann. New Jersey : Princeton
University Press, 1972.
24. MacLean, C. Y., et al., et al. GREAT improves functional interpretation of cis-regulatory
regions. Nature Biotechnology. 28.
25. Suzuki, M. and Floreano, D. Enactive Robot Vision. 2008.
26. Geoffrey Hinton, Terrence J. Sejnowski. Unsupervised Learning: Foundations of
Neural Computation.
27. Goldeberg, D.E. Alleles, loci, and the traveling salesman problem. 1985.
28. Goldeberg D.E., Miller B.L. Genetic Algorithms, Tournament Selection, and the Effects
of Noise. 1995.
29. Hopfield, J.J. Neural networks and physical systems with emergent collective
computational abilities.
30. J.-H, Holland. Adaptation in Natural and Artificial Systems. 1975.
31. Reynolds, Craig. Flocks, Herds and Schools : A Distributed Behavioral Model. 1987.
32. Kohonen, T. Self-Organized Formation of Topologically Correct Feature Maps.
33. Langton, C.G. Artificial Life. 1989.
34. The China-Brain Project : Building China's Artificial Brain using an Evolved Neural Net
Module Approach. de Garis, H. and et Al. s.l. : Artificial General Intelligence Research
Institute, 2008.
35. Reconfigurable Asynchronous Logic Automata. Gershenfeld, N. et Al. s.l. : Symposium
on Principles of Programming Languages, 2010.
36. David L. Chandler, MIT News Office. Rethinking artificial intelligence. MIT news.
[Online] 2010. http://web.mit.edu/newsoffice/2009/ai-overview-1207.html.
37. de Garis, H. The artilect war : cosmists vs. terrans : a bitter controversy concerning
whether humanity should build godlike massively intelligent machines. Palm Springs : ETC
Publications, 2005. 0882801546.
38. J., Wolff. Les grandes oeuvres économiques. 1983.
Vie Naturelle et Artificielle : Apports à la Science 2011
- 14 -
39. F.J., Varela. Autonomie et connaissance. Essai sur le vivant. 1989.
40. J., Von Neumann. Les fondements mathématiques de la mécanique quantique. 1932.
41. J. Von Neumann, A. Burks. Theory of Self-Reproducing Automata. 1966.
42. Wikipedia. Wikipedia. [Online]
43. Carton, O. Machines de Turing. Liafa Jussieu. [Online]
http://www.liafa.jussieu.fr/~carton/Enseignement/Complexite/MasterInfo/Cours/turing.html.
44. Oparin. The Origin of Life. 1929.
45. C.C., Maley. The Computationel Completness of Ray's Tierran Assembly Language.
1994.
46. Yudkosky, E. Staring into the Singularity. 1996.
47. Touzet, C. Les réseaux de neurones artificiels : introduction au connexionnisme. 1992.
48. S., Batzoglou. Serafim Batzoglou's Website. Stanford Computer Science. [Online]
http://ai.stanford.edu/~serafim/research.html.
49. Stanford. AGAN Alignment Toolkit Website. [Online]
http://lagan.stanford.edu/lagan_web/index.shtml.
50. MIT. RALA Home. RALA. [Online] MIT. http://rala.cba.mit.edu/ .
51. abennett. Intel reaches Pentium 4 speed limit at 3.8 Ghz. IT World. [Online]
http://www.itworld.com/041116intelp4.
52. MIT. MMP Home Page. MMP. [Online] http://mmp.mit.edu/.
53. AAAI. Ethical & Social Implications of AI for Society. AAAI. [Online]
http://www.aaai.org/AITopics/pmwiki/pmwiki.php/AITopics/Ethics.
54. BBC. Robotic age poses ethical dilemma. BBC news. [Online] 3 7, 2007.
http://news.bbc.co.uk/2/hi/technology/6425927.stm.
55. Asimov, I. Les Robots. 1950.