Jusqu'ici je posais un scepticisme ferme face à sa certitude. Le formalisme et la communication semblent aller dans des directions opposées et ne permettaient pas à la machine de saisir l'intelligence discursive derrière la sémiosis humaine. Pour suivre le débat entre Vincent-Olivier (VOA) et moi (ML) dans l'ordre:
(VOA)Discretization 1/2,
(ML)sémiosis humaine 1,
(VOA)Discretization 2/2,
(ML)sémiosis humaine 2,
(VOA)Semantic web et le (ML)présent billet
En revenant au web sémantique, Vincent-Olivier a précisé sa pensée en affirmant :
"A semantic web query engine able to identify from free, unstructured, unindexed, markup-less text, poems that have bird as metaphor for freedom is not simply intelligent, but also more intelligent than the vast majority of humans at this very task."
Il y a une théorie dont j'ai entendu parlé il y a longtemps et qui, je crois, a influencé inconsciemment ma décision d'être sceptique face à l'intelligence artificielle. C'est la théorème de Gödel sur l'incomplétude. Je vais en sortir les grandes lignes et montrer comment elle peut alimenter la discussion.
En 1931, Kurt Gödel a démontré que pour n'importe quelle branche des mathématiques, il y aura toujours des propositions qui ne pourront pas être prouvées vraies ou fausses à l'intérieur de cette même branche. En sortant de cette branche (en sortant de ce système) il est possible d'aboutir à de nouvelles règles et de nouveaux axiomes. Mais ce nouveau système possède lui-aussi des propositions invérifiables sans sortir de nouveau du sytème. D'où le nom de théorème d'incomplétude.
En clair, il démontre, théoriquement, que tout système logique, aussi complexe soit-il, est incomplet. Incomplet dans le sens que le système ne peut prouver toutes les propositions vraies qu'elle contient, sans sortir d'elle-même pour avoir cette preuve.
Nous ne pouvons donc jamais être sûr en utilisant une méthode formelle que certains axiomes arithmétiques ne mènent pas à des contractions. Tout système utilisant la logique formelle est donc "incomplet", c'est à dire qu'elle détiendra toujours plus d'énoncés vraies que d'énoncé vérifiables.
Un système d'intelligence artificielle, s'il veut acquérir de la connaissance, doit pouvoir vérifier lui-même les énoncés vraies. Le théorème de Gödel semble contredire la possibilité que la machine soit plus intelligente que l'Homme à cause de la limite des axiomes qu'elle utilise pour avoir une connaissance du monde, alors que nous sommes capables de découvrir inopinément des vérités.
Je ne suis pas expert en la matière, mais en relisant là-dessus, j'ai pu retrouver au moins la source de mon scepticisme et pourquoi je pensais que l'intelligence discursive est un puissant réquisitoire pour la superiorité insoupçonnée du langage humain contre la machine. En fait j'aurais dû commencer par ce théorème, puisque mes autres arguments reposent implicitement là-dessus. Ce n'est que maintenant que je fais le lien.
Mais ça ne veut pas dire que j'ai raison car je dois maintenant prouver dans quel cas celà s'applique au web sémantique.
1. Gödel a seulement démontrer que "vrai" et "démontrable" divergent. Est-ce que le web sémantique peut s'en passer?
Je crois que l'engin de recherche de Vincent-Olivier qui "découvre" des relations sur le web a besoin de les prouver. Si non, elle se base sur des "vérités données" et nous avons alors non pas "un" mais "des" web sémantiques (un par domaine explicite).
2. Gödel assume que le système en question est cohérent. Est-ce que le web sémantique doit être cohérent?
Je crois que l'engin de Vincent-Olivier doit se baser sur des axiomes pour acquérir de la connaissance (en créant de nouveaux axiomes) donc sur un système cohérent. Si non, comment ferait-il pour résoudre les contractions (ce que le web doit contenir en grande quantité).
3. Le théorème de Gödel présuppose une logique formelle. Est-ce que le web sémantique doit uniquement se baser sur logique formelle?
La méthode de résolution de problème par "discretization" me semble demander une logique formelle (pour briser un problème rencontrée de façon efficace). En utilisant une "mathematical newspeak", qui d'après Vincent-Olivier augmenterait l'efficacité de la communication, on doit être bien obligé de passer par un langage formel.
Encore, ici, ça ne prouve en rien que j'ai raison. Tout au plus, qu'il existe peut-être des pistes pour le web sémantique qui ne marche pas à grande échelle et de façon universelle. Un système qui se baserait sur une logique formelle pour naviguer dans un web de "free, unstructured, unindexed, markup-less text[s]" devrait rencontrer des problèmes fondamentaux qui nous empêcheraient de les appeller "intelligence artificielle" (au sens que je l'entends ici). Mais est-ce que la "discretization" fait partie de ces voies cul-de-sac? Tout dépendrait alors de la méthode employée, donc. Mais en tant que concept il est possiblement une bonne solution.
Une intelligence "partielle" utilisant la "discretization" pourrait être plausible sur le web, à mon avis, avec ces deux points:
a. Un système pourrait arriver à prouver suffisamment d'axiomes à l'intérieur de lui-même pour être autonome (sans prétendre à l'exhaustivité) et interpréter de façon suffisante afin de réussir le test de Turing.
b. Ce qui est prouvé n'a pas besoin de paraître vrai aux yeux des humains.
Mais je ne suis pas sûr que celà ne conduira pas, quand même, à de multiples web sémantiques...