Présentation du langage par son créateur, Pierre Levy
Denis Failly – « Pierre Levy,
vous lancez le site consacré à IEML(Information Economy Meta Language),
pourriez vous nous expliquer en quelques mots ce qu’est ce langage » ?
Pierre Levy - « Dans mon esprit, IEML est la langue de l’intelligence collective ou « surlangue » dont je parlais dans l’introduction de mon livre intitulé L’Intelligence collective (La Découverte, 1994), et cela pour au moins trois raisons :
- IEML bâtit, pour commencer, un pont entre langues naturelles. N’importe quel graphe de mots écrit dans une langue naturelle au moyen d’un éditeur IEML peut être lu dans n’importe quelle autre langue naturelle supportée par le dictionnaire IEML.
- IEML est, ensuite, un pont entre cultures, disciplines, domaines de connaissances, contextes, terminologies, ontologies, etc. La structure logique de ce métalangage permet en effet de déterminer automatiquement des relations entre concepts, des distances sémantiques entre documents et des synthèses quelles que soient l’hétérogénéité des corpus considérés.
- Enfin IEML construit un pont entre humains et ordinateurs en donnant aux manipulateurs automatiques de symboles les moyens d’analyser et de computer la complexité sémantique et pragmatique humaine… lorsque cette complexité est exprimée en IEML. Je précise immédiatement que, de même que la majorité des utilisateurs d’ordinateurs n’ont pas besoin d’entrer directement en contact avec le binaire ou même avec des langages de programmation, la majorité des utilisateurs humains d’IEML n’auront pas besoin d’apprendre le métalangage.
Dans un style sobre, c’est un système
d’adressage sémantique des documents numériques. Dans un style plus
lyrique, je comparerais l’internet à un « cerveau global », à qui il ne
manque que le système symbolique adéquat pour faire accéder
l’intelligence collective humaine à la conscience réflexive. Mon
hypothèse est qu’IEML pourrait précisément jouer le rôle de ce système
symbolique initiateur d’une nouvelle dimension cognitive.
IEML peut nous permettre de franchir ce seuil cognitif parce qu’il réunit deux propriétés généralement séparées :
d’un côté, il est capable d’exprimer toutes les nuances sémantiques
des langues naturelles, comme le français, l’anglais ou le mandarin ;
- d’un autre côté, contrairement aux
langues naturelles, il peut être traité de manière optimale par les
ordinateurs : il est « calculable »
J’ai conçu ce métalangage afin
d’exploiter au service de la cognition humaine la puissance de
communication, de mémoire et de traitement d’information dont nous
disposons aujourd’hui et dont les générations précédentes ne pouvaient
même pas rêver.
Pour utiliser une métaphore, je pourrais décrire IEML comme le « code génétique » (ou code mémétique) de la culture humaine. Je précise tout de suite que, si le code
me semble déchiffré, l’ensemble du génome reste à inventorier. La
cartographie de l’espace cognitif humain sera nécessairement une
entreprise collective de longue haleine. »
Denis Failly – « A qui s’adresse IEML ? »
Pierre levy - « IEML
s’adresse essentiellement à deux catégories de personnes : les
architectes de l’information et les chercheurs en sciences humaines
intéressés par les langages formels.
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »
Denis Failly - »Quels sont les grands principes d’IEML ? »
Pierre Levy - « Etant un méta-langage, IEML est indépendant des langues naturelles, ontologies, classifications et théories.
C’est (a) une idéographie (b)
combinatoire, ce qui signifie (a) que chaque symbole a une signification
distincte et que (b) la signification d’une combinaison de symboles
tend à correspondre à la combinaison des significations de ces symboles.
Si ce dernier principe (b) était appliqué à la lettre, on aboutirait à
un langage trop redondant, à la couverture sémantique limitée. Le
principe combinatoire est donc tempéré par un principe complémentaire d’économie conceptuelle selon lequel le maximum de « surface » sémantique est couverte par un minimum de symboles.
Les symboles élémentaires sont au nombre de cinq : virtuel, actuel (les deux éléments pragmatiques, liés à l’action et aux verbes), signe, être et chose (les trois éléments sémantiques, liés à la représentation et aux noms).A partir des éléments, IEML déploie cinq niveaux de combinaison et d’articulation : 25 événements (deux éléments), 625 relations (deux relations), des millions d’idées (deux ou trois relations), une quantité astronomique de phrases (deux ou trois idées), une quantité virtuellement infinie de graphes possibles (matrices, arbres ou séries de phrases).
Pour le moment (été 2006), seules
quelques deux mille idées ont été interprétées en langues naturelles,
avec l’objectif de couvrir la majorité des sujets possibles des sciences
humaines. Le dictionnaire IEML en ligne (http://www.ieml.org/) est censé s’accroître constamment avec de nouvelles idées et de nouvelles phrases.
Chaque graphe est / à simultanément :
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.
Denis Failly – « Pourquoi avoir créé ce langage, qu’apporte t-il de plus par rapport aux langages existants ? »Pierre levy - »
- TCP-IP permet la communication entre ordinateurs.
- HTTP gère les hyperliens d’un site à l’autre.
- HTML normalise la visualisation des pages web.
- XML décrit la structure des bases de données…
IEML est un « système de coordonnées »
des sujets, du contenu sémantique, ou de la signification des fichiers.
Il code la position des documents dans un espace cognitif infini
mais précisément adressable. IEML propose un codage navigable des
concepts. Chaque code-concept (ou phrase IEML) est interprétable dans
toutes les langues naturelles supportées par le Dictionnaire IEML.
Actuellement, ces langues se limitent au français et à l’anglais, mais
des traductions en espagnol et portugais sont déjà en cours. Nous n’en
sommes qu’au tout début du programme de recherche : à terme, les codes
IEML seront interprétés dans toutes les grandes langues de communication
présentes sur le web.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.
Pour décrire le « contenu », on
utilise généralement des mots en langues naturelles. Mais il existe des
milliers de langues différentes et, à l’intérieur même de chacune des
langues, les mots peuvent avoir plusieurs sens et le même sens peut
s’exprimer par plusieurs mots, sans parler des changements de sens dues
aux variations de contextes.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.
En plus du simple usage des langues
naturelles, il existe également des terminologies moins ambigües et bien
structurées utilisées par les professionnels de l’information : langages documentaires des bibliothécaires, ontologies
des informaticiens, etc. Mais ces systèmes de classification sont très
nombreux, généralement incompatibles entre eux et sont basés en
définitive sur l’utilisation de mots en langues naturelles.
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».
Les ontologies, que les normes
du web sémantique recommandent de formaliser dans le langage OWL
(Ontology Web Language) sont des réseaux sémantiques – le plus souvent
des arbres ou des taxonomies – décrivant les relations entre concepts
d’un domaine de connaissance. Or, d’une part, les concepts sont exprimés
par des mots en langues naturelles (avec tous les problèmes afférents
déjà signalés plus haut) et, d’autre part, les ontologies – considérées
comme structures de relations – ne sont pas traductibles
les unes dans les autres. OWL permet seulement l’exécution d’inférences
automatiques au sein d’une même ontologie. Cette fragmentation
linguistique et logique des ontologies limite énormément les bénéfices potentiels du web sémantique.
En général, l’exploitation
« intelligente » des données présentes sur le web est aujourd’hui très
limitée. Par exemple, même dans des corpus relativement homogènes, comme
wikipedia, on ne voit pas de possibilités de génération de liens automatiques
entre documents portant sur les mêmes sujets. La situation est encore
pire si ces documents sont rédigés dans des langues différentes.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.
La traduction des langages documentaires et des ontologies en IEML aurait trois avantages directs :
– premièrement, tout le travail d’indexation et de catalogage déjà réalisé serait sauvé (il n’est pas à refaire),– deuxièmement, les ontologies et systèmes documentaires deviendraient mutuellement compatibles sur le plan logique, c’est-à-dire que des inférences automatiques et calculs de distances sémantiques pourront être exécutées d’une ontologie à l’autre,
– troisièmement, une fois traduite en IEML, une terminologie ou ontologie se trouverait automatiquement interprétée dans toutes les langues naturelles supportées par le dictionnaire IEML.
En général, une indexation en IEML permettra :
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.
Je précise que tout cela représente aujourd’hui (été 2006) un vaste programme de recherche et non pas des solutions techniques immédiatement disponibles.
Pour les corpus qui ne sont pas déjà indexés au moyen d’un langage documentaire ou d’une ontologie, il faudra évidemment mettre au point des solutions d’indexation automatique en IEML. »
Denis Failly – « Pierre
Levy, compte tenu de vos recherches, pratiques, et nombreux écrits
autour des usages des Tic et de leur implication en terme culturels,
sociaux, cognitifs, d’intelligence collective, quel est votre regard sur
le « paradigme » Web 2.0. »
Pierre Levy - « Je suppose que vous entendez par « web 2 » la liste suivante :
le développement de la blogosphère et des possibilités d’expression publique sur le web,– l’usage croissant des wikis,
– le succès mérité de wikipedia,
– la multiplication des processus de partage d’information et de mémoire (delicious, flicker, etc.),
– la tendance générale à considérer le web comme une sorte de système d’exploitation pour des applications collaboratives et autres,
– la montée des logiciels sociaux et des services tendant à accroître le capital social de leurs usagers,
– la montée continue des systèmes d’exploitation et des logiciels à sources ouvertes,
– le développement du P2P sous toutes ses formes (techniques, sociales, conceptuelles)…
La liste n’est pas close.
Tout cela manifeste une exploration sociale des diverses formes d’intelligence collective rendues possibles par le web et repré
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »
Denis Failly – « Vous qui
êtes acteur et observateur des recherches en cours dans le domaine des
Sciences Cognitives, vers quoi allons – nous, quelles sont les
émergences remarquables dans ces domaines qui préfigurent l’avenir ? »
Pierre Levy - « La formalisation de la logique et de l’arithmétique a permis l’automatisation des calculs
arithmétiques et logiques et, en fin de compte, la naissance de
l’informatique classique. Grâce à la formalisation de la sémantique et
de la pragmatique proposée par IEML, on peut prévoir la naissance d’une
informatique sémantique (ou informatique 2, si vous voulez !), capable
de combiner les calculs arithmétiques et logiques avec des calculs
sémantiques et pragmatiques respectueux du caractère complexe,
qualitatif et virtuellement infini de l’univers cognitif.
Cela ne rendra pas obsolètes les résultats antérieurs des recherche en IA (NDLR: Intelligence Artificielle),
en informatique cognitive ou en théorie des jeux mais permettra au
contraire de les enrichir d’un contenu sémantico-pragmatique beaucoup
plus riche.
Plus généralement, je crois que les
développements ultérieurs du cyberespace verront l’avènement d’une
révolution scientifique dans les sciences humaines, un peu comme
l’invention de la presse à caractères mobiles par Gutemberg et les
nouveaux instruments d’observation (téléscope et microscope) ont
favorisé une révolution scientifique dans les sciences de la nature.Les
acteurs de cette révolution auront tendance à considérer les phénomènes
sociaux comme des processus cognitifs à l’échelle collective. Ces
processus de cognition collective (ou d’économie de l’information
signifiante) seront observables, navigables et modélisables dans le
cyberespace.
Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »
Denis Failly – « Merci Pierre Levy »Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »
Le site IEML
Pierre Levy est l’auteur de nombreux ouvrages parmi lesquels :
La Cyberculture
Qu’est ce que le virtuel
Bio : Pierre Lévy a consacré sa vie
professionelle à analyser les implications culturelles et cognitives des
technologies numériques et à promouvoir leurs meilleurs usages sociaux.
Né en 1956. Maîtrise d’histoire des sciences (Paris,
Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie
(Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.
Membre de la mission officielle sur l’enseignement ouvert et à distance
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.