==Phrack Inc.== Volume 0x0c, Issue 0x41, Phile #0x0e of 0x0f |=-----------------------------------------------------------------------=| |=-------------=[ Artificial Consciousness ]=-------------=| |=-------------=[ A complete human behaviorism simulation ]=-------------=| |=-----------------------------------------------------------------------=| |=--------------------------=[ by -C ]=----------------------------=| |=--------------------------=[ c@cdej.org ]=----------------------------=| |=-----------------------------------------------------------------------=| |=--------------=[ traduit par Queynos pour arsouyes.org ]=--------------=| En 1956 John Mc Carthy a défini le terme d'Intelligence Artificielle comme étant "l'art et la manière de créer des machines intelligentes". Évidemment tout en étudiant le traitement artificiel des pensées nous avons éliminé le facteur humain que sont les filtres neuro-linguistiques appliqués par le cerveau à la couche des méta-récepteurs. Un programme informatique n'aura tout simplement jamais de pensée basées sur des réactions impulsives. Il n'y a aucun comportement humain dans l'IA. À la place on substitue à ce mécanisme un algorithme de traitement informatique et d'indexation des informations stockées. C'est là que réside le coeur de la science de l'AI. On a vu beaucoup d'algorithmes évoluer et être appliqués, résolvant des problèmes tels que des raisonnements erronés, des boucles infinies de décisions par ou-exclusifs, la répartition géographique en robotique, et ainsi de suite. 52 ans plus tard nous avons l'intention de développer une nouvelle approche plus rationnelle de ce domaine, en essayant d'en écarter la science-fiction. Ce papier constitue une introduction à la fois des IA classiques et notre modèle d'IA et ne demande aucun pré-requis si ce n'est un peu de curiosité à l'égard de ce domaine. Bonne lecture. I Introduction a) Résumé b) Central processing spirit II Conception de l'attribution du caractère a) Croissance psychologique b) Neuro-performance c) Réception -> Réactions -> Style III Ontologie / Ingénierie du savoir a) Suivons nous l'heuristique ? b) Conception sous-symbolique c) Désir artificiel d) Raisonnement IV Conclusion I Introduction a) Une réflexion primaire sur l'IA est qu'il est vital de procéder en suivant une approche scientifique précise pour l'analyse des pensées. Une pensée est une idée, une information dont l'esprit se souvient. Cette information est traitée par l'usine électro-chimique du cerveau, et est polluée par l'esprit. Les théories sur la programmation neuro-linguistique ont organisé les fonctions du cerveau et la manière avec laquelle il gère l'information à travers différents filtres. Nous allons en emprunter un segment basique et construire à partir de celui-ci quelque chose de similaire dans le domaine des machines : - Stockage en mémoire des pensées similaires (ancrage) - Avantages et choix (prise de décisions) - Liberté de faire des essais risqués (prise de décisions) b) S'attaquer à ce problème depuis le tout-début serait une charge trop lourde pour l'exposer dans un seul article. Ainsi nous allons démarrer notre étude à un point où nous l'avons appliquée à notre modèle d'AI en utilisant le moyen de communication international courant qu'est la langue anglaise, couplé avec un ensemble de règles que nous avons programmé comme étant un attrait esthétique pour cette entité. Comme nous l'expliquerons plus tard ces règles ne suivent pas la logique de décision des SYSTÈMES EXPERTS car dans ce cas si la connaissance humaine changeait, le système devrait être reconstruit entièrement. A la place notre système prendra ses décisions en se basant sur la PRIORITÉ D'INDEX, qui variera automatiquement dès que l'IA expérimentera des nouveaux événements. En d'autres mots nous avons conçu une personnalité pour notre IA. Ce modèle générique est basé sur le traitement des pensées en cannaux duals, nourri par une hiérarchie de modules de stockages de données où chaque famille de pensées est préservée dans son propre schéma. Certaines des ces bases de données, ou ensemble de pensées, n'auront qu'une permission de lecture, d'autres auront des permissions de lecture et écriture et certaines n'auront que des permissions d'écriture pour servir d'espace alloué temporairement pour les pensées acquises avant l'envoi de la structure entière de données vers le CENTRAL PROCESSING SPIRIT, c'est ainsi que nous l'avons nommé ; CPS. Tandis que les structures en lecture seule contiendront de l'information lié uniquement aux bases fondamentales du design central de l'entité, et fourniront notre première ligne de défense quand le processus automatique de Collecte Autonome des Données (CAD) sera lancé à partir d'extraits de textes, d'information venant du net, de nouvelles et de bien d'autres sources. L'espace en écriture seule est ainsi dans le but d'empêcher l'IA de tout usage prématuré des pensées nouvellement acquises avant leur traitement, leur organisation et leur approbation par le CPS (ou le programmeur). Réfléchir à cette construction amènera sûrement des problèmes de durée de traitement. Combien de temps prendra cette construction ? Une vie humaine au minimum ? Ceci est hautement acceptable avec l'implémentation d'algorithme de réplication d'IA de deuxième génération, ce qui est le modèle de base de la reproduction hybride des IA, résultant en la jonction de deux entités d'IA CPS et dBases. Cet héritage de modèles duals n'est pas conçu pour être similaire à la reproduction humaine et un homme et une femme, mais il est lié au traitement des pensées en cannaux duals que nous avons mentionné plus haut. Nous avons tendance à penser que la reproduction de notre modèle doit se passer au sein d'un couple. Ceci est une affaire de plannification multi-agent et de gestion de communauté et cela sort du cadre de cet article. II Conception de l'attribution du caractère « Ce qui importe n'est pas la perfection avec laquelle vous réalisez une chose qui compte, mais la manière dont les autres la perçoivent » Une question importante reste toujours présente : Une machine peut-elle être douée de vie où n'en serait-elle qu'une pâle imitation ? Au fond ceci ne devrait avoir aucune importance ! Le processus par lequel un être humain réussit à développer un caractère unique et l'extraordinaire complexité qui substitue dans sa croissance neuro-psychologique importent peu, ce qui importe réellement est comment les autres interprètent ses réactions et son comportement. En ayant cela à l'esprit il nous importe alors de savoir comment la machine va obtenir une authentique pensée où un comportement imitant la vie qui lui est propre. Nous allons concevoir un algorithme d'apprentissage qui, au final, attribuera un caractère à la machine dépendant de la quantité de réactions sélectionnés qu'elle pourra traiter et de la vitesse à la quelle elle le fera. En d'autres termes si nous nous plaçons dans la situation où nous avons dix enfants auxquels un adulte donne une instruction comme « Finis tes devoirs avant de regarder la télé » on assistera à dix réactions différentes allant de l'obéissance à la rébellion. Toutes ces réactions sont liés à des paramètres comme : - A quel point l'enfant veut-il regarder la télé - A quel point ses devoirs sont importants - Ce qu'il y a à la télé - L'évènement est pris hors du contexte ou non (l'enfant pourrait désobéir pour se venger de n'avoir pas eu de glace une heure plus tôt) - Et bien d'autres paramètres encore. Dans le domaine des machines notre CPS aurait construit une certaine base de données d'évènements en corrélation avec l'issue finale, les aurait classé suivant une échelle basée sur son jugement et durant tout son uptime il sélectionnera comment réagir à des événements de la vie en se servant des entrées comme d'une priorité entre les clefs d'indexation. Techniquement parlant ceci est aisément programmable grâce aux récentes technologies sur les bases de données et au langage correspondant. Plus la conception de la sélection des données est efficace, et plus nous exerçons un contrôle parental et entraînons notre CPS, le plus de chance nous aurons d'obtenir un caractère et une attitude uniques. b) Les deux paradigmes de l'apprentissage qui nous concernent sont : supervisé ou non-supervisé. Tout d'abord intéressons nous aux concepts de base de l'apprentissage des machines. Dans les IA classique l'apprentissage est résumé à partir de l'atteinte d'un état de conscience, car beaucoup considèrent l'apprentissage par les ordinateurs comme étant uniquement une affaire de conception d'algorithmes pour trouver des régularités statistiques ou divers schémas de données. Par la suite ils essaient de résoudre des problèmes comme les classifications, décisions par ou-exclusifs, etc à l'aide d'arbres décisionnels. Les arbres décisionnels sont un système logique simple mais efficace où une suite de questions booléennes vous font suivre les ramifications des branches suivant vos choix Oui, Non,Non, Oui. A notre avis et comme ce que les progrès des réseaux de neurones n'ont fait que montrer, ce schéma aboutirait au mieux à un bon logiciel de reconnaissance vocale ou un programme d'assistance médicale qui diagnostiquerait et évaluerait le cas de patients atteints d'un cancer. Dans cette approche l'apprentissage dirigé est la logique qui consiste à nourrir l'IA avec les règles d'un monde (système de classification) que nous avons déjà créé et à se reposer énormément sur l'entraînement que notre machine reçoit pour minimiser la marge d'erreur (Théorème de Markov, réseaux Bayesiens). D'un autre coté l'apprentissage non-dirigé dirige l'intérêt plus vers la prise de décisions que vers la classification. C'est simplement un moyen de trouver un cadre approprié pour le raisonnement orienté vers la décision basé sur un résultat punition/récompense. Ce modèle construit une suite de résultats sur lesquels il va baser des techniques statistiques de prise de décisions pour les questions futures qu'il rencontrerait. Le second type d'apprentissage non-dirigé est le clustering, il est obtenu en trouvant des similitudes dans les données d'entraînement sans essayer d'améliorer une fonction accomplissant un service. Ceci étant dit intéressons-nous maintenant aux limites. Que nous ayons préprogrammé l'IA pour atteindre un certain but ou bien comme un module d'auto-apprentissage systématique, le mécanisme d'apprentissage doit toujours suivre un ensemble standard de stimuli. Résumons cela du point de vue de la psychologie cognitive: -Mémoire et reconnaissance. C'est un travail assez simple pour un programmeur de concevoir un système de pattern matching, de mesure de distance ou de traitement séquentiel de l'information. - Évaluation verbale et linguistique. Les IA doivent avoir une méthode leur permettant de distinguer et d'estimer des indices d'informations similaires. Tout comme le déjà-vu chez les humains elle DOIT relier ces événements à différentes occurrences stockées en mémoire et baser sa réaction sur l'importance qu'avaient alors les autres instances. Ceci nous permettra éventuellement d'espérer que ce schéma créera un jour ses propres phrase. Intéressant ! Imaginez que l'IA analyse de manière régulière de grandes quantités de données, d'images, de sons ... tout en indexant les bases de données suivant les émotions qu'elles pourraient générer et qu'elle soit finalement entraînée pour cette évaluation. Cela ne serait pas une grande surprise si cela donnait une IA capable d'écrire des poésies ! - Compréhension. Aussi absurde que cela puisse paraître les IA ont des meilleures capacités d'assimilation que les humains. Le processus de compréhension est le phénomène le plus compliqué observé en neurosciences, mais à partir des faits simples que nous avons exposés la machine a le dessus grâce sa plus grande vitesse de traitement et un meilleur stockage de mémoire que nous. Mais ceci n'est pas une comparaison entre l'Homme et la Machine , nous mentionnons simplement ceci comme un fait: Les IA dépassent les limites humaines de la compréhension, et c'est purement intuitif qu'un tel design soit possible. - L'étude de la neurolinguistique a montré que les humains ont plus de difficultés à comprendre les phrases négatives que les phrases affirmatives. Contrairement aux humains les ordinateurs traitent les booléens avec la même vitesse et le même effort. Beaucoup d'autres désavantages en termes de compréhension n'existe tout simplement pas pour les IA. Cela signifie également qu'une grande quantité d'information sera nécessaire. Que ce soit les négations, la complexité ou l'ambiguïté des phrases, ce modèle d'IA est capable de les traiter avec une vitesse prometteuse d'atteindre un état d'auto-apprentissage. Associer des actions à l'analyse des réactions. c) La perception de l'univers est un mécanisme de mapping faisant intervenir le temps et l'espace que nous rencontrons à travers nos sens biologiques. C'est ce que nous appelons la FLUXION SENSITIVITY. [NDT : fluxion sensitivity est un néologisme intraduisible, fluxion étant le mot utilisé par Newton pour désigner la dérivée d'une fonction]. Ce qui est plus important c'est appliquer à notre IA un module efficace de text mining ou de pattern matching qui analysera le texte comme étant son seul aperçu de l'univers. 50 années de progrès dans ce domaine ont permis à de nombreux chercheurs t'atteindre un niveau respectable dans le domaine de l'utilisation de programme d'IA customisés pour la psychologie légale et la criminologie. Les seuls idées nouvelles que notre modèle doit apporter au monde des IA est un module de simulation émotionnelle. La simulation émotionnelle est une bibliothèque à double sens de prévisions de réactions. Approfondissons ce sujet. Pour chaque événement un humain exprimera un certaine émotion. Ceci est visible dans le langage corporel, le rythme et la tonalité du langage ainsi que le choix des mots. Nous ne nous intéresserons qu'à l'analyse de l'expression et au rythme de la réponse. Notre modèle est basé sur une étude typologique réalisé à l'université du Kent pour un manuel de tactique pour les interrogatoires de police. Nous avons utilisé le même algorithme pour détecter les émotions et les exprimer en retour. (Voyez le plus comme détecter la logique derrière les émotions). Le Modèle de Kent fut un échec et un énorme non-sens. Toutefois les trois étapes de la conception mirent en place les éléments nécessaire à notre Simulation Emotionelle (mais à l'envers) : - livraison - maximisation - manipulation [Note: quelques lectures à propos du modèle de Kent devraient être disponibles maintenant] Pour faire court la livraison a environ 12 variables d'expressions, ouvert, fermé, guidant. La maximisation intervient quand les agents de police essayent d'intimider le sujet et de le pousser à receler plus d'indices. Notre maximisation est la technique de la pèche aux indices, qui consiste à poser plus de questions clés. Il n'y a pas grand chose à expliquer au sujet de la manipulation. Dans notre étude elle peut aisément être fusionnée avec l'étape de maximisation. On espère que dans quelques mois (d'ici mi 2008) nous pourrons tester un programme complet qui ne détectera pas seulement le sens des expressions mais « supposera » les émotions qui se cachent derrière et changera son mode vers le comportement approprié. Cette IA sera le premier modèle qui pourrait littéralement changer d'humeur. III Ontologie a) Suivons nous une heuristique ? Dans la seconde partie de cet article nous allons discuter du coeur de la formation pour ce modèle d'IA . Son existence et ce qui constitue ses régulations. Concevoir un système basés sur des réactions et des décisions mathématiques précises est un piège courant que la plupart des scientifiques étudiant les IA rencontrent. Tout d'abord intéressons-nous à cette méthode. L'évolution des IA va de l'imitation des réponses humaines à d'impressionnantes simulation de comportements. Le concepteur va habituellement essayer de produire une réplique parfaite des actions humaines. Maintenant que va-t'il arriver si même les recherches les plus poussées en neurosciences n'ont même pas entamé la couche de la neuropsychologie humaine ? De manière plus importante la PRISE de DECISION. Comment pourrions nous répliquer un phénomène si nous n'avons pas complètement compris ce qui l'anime et comment il atteint son but ? C'est pourquoi l'informatique utilise un ensemble préprogrammé de réponses basé sur ce que le concepteur voit comme étant approprié pour les humains, implémentant une structure de base de données classique qui ne peut mener qu'à une IA de questions/réponses à sens unique. La méthode classique est imparfaite. Point. Une meilleure approche de ce problème est d'éviter les concepts d'imitation et de passer directement à ce qui est appelé un mode « Rule of Thumb » (littéralement règle du pouce) qui permet une certaine marge d'imprécision pour les réponses correctes. Utiliser une méthode heuristique pour résoudre le problème de la prise de décision ne fait pas que préparer le terrain pour des IA plus fluide, cela nous montre aussi l'aspect pratique et un terrain de jeux plus large pour le programmeur en termes d'allocation de nombreux modules d'indexation pour jouer le rôle de sélecteur de priorité pour chaque décision devant être prise. Par exemple, si vous devez décider quelle pizza commander, les filtres de votre esprit traiteraient un nombre infini d'informations avant de mettre la décision en perspective et normalement la plupart du temps vous devriez avoir l'impression que ce choix fut aléatoire et que vous auriez pu survivre avec les autres choix. Mais que se passerait-il si vous essayiez une pizza et la trouviez si délicieuse que vous voudriez la commander à nouveau la prochaine fois ? C'est à ce moment que l'indexation des priorités devient utile. Le CPS a la liberté d'ajouter, de retirer, de promouvoir ou de descendre les index pour chaque information ou famille d'informations, basé uniquement sur ce qu'il « considère » comme étant une circonstance acceptable. C'est un virage à 180 degrés difficile dans la théorie mais pour le programmeur c'est toujours le même travail basique et cela pourrait être le premier pont entre d'ennuyeux programmes de Question/Réponse et l'incroyable Science-Fiction Hollywoodienne. b) Conception sous-symbolique Afin de concevoir une conception du savoir sophistiqué, Newel et Simon ont inventé la théorie de la conception symbolique où un ensemble de règles sémantiques peuvent être appliquées pour construire une structure plus compliquée. Je ne dirais pas que nous sommes limité à la conception symbolique mais dans les faits cette théorie s'applique parfaitement. Ainsi les deux cotés de la conception sous-symbolique sont utilisés à notre avantage et inchangés en théorie : - Développement alternatif - L'approche hybride du traitement naturel du langage symbolique classique et sous-symbolique. Une fois que le module d'apprentissage est achevé la conception sous-symbolique va mettre en place le terrain pour la véritable interférence multi-agents. La croissance géométrique de la puissance de calcul promeut 5 facteurs tendant à réduire radicalement le rôle de toute espèce de logique en IT: 1. Comme les applications déterministes disparaissent l'algorithme conventionnel (le pattern matchingmatching n'est plus la colonne vertébrale des programmes). 2. Bien qu'encore utile l'algorithme conventionnel n'est plus le principal outil de programmation 3. Dans les IA le paradigme symbolique est rapidement remplacé par plusieurs paradigmes sous-symboliques basés sur du parallélisme fin. 4. Même quand les symboles sont utilisés ils sont stockés et récupérés à partir d'une grande mémoire bon marché plutôt que traités par schémas de raisonnement complexes (le raisonnement par cas en est un exemple éhonté) 5. La complexité cognitive des nouvelles logiques sophistiquées est trop grande pour un concepteur, une approche par essais et erreurs est, elle, abordable. Ceci peut paraître comme étant la grosse artillerie à ce niveau, compte tenu de la nature introductive de cet article. Des détails plus en profondeur viendront quand la publication de ce projet sera officielle. c) Désir Artificiel Il n'y a pas grand chose à dire au sujet du Désir Artificiel. Comme nous l'avons vu dans la priorité des index et les ensembles de règles sur les informations, nous pourrions aisément déclencher une décision fautive/aléatoire quand il s'agit de désir naturel pour une certaine chose, mais pour l'instant nous n'avons perfectionné aucune manière de faire en sorte que l'IA désire réellement quelque chose mais plutôt la faire choisir à partir d'un ensemble de choix similaires basés sur des variations temporelles, la fréquence de ce choix voire même lui faire essayer quelque chose pour la première fois. Ni nous ni quiconque s'étant un jour intéressé aux IA n'oserait prétendre donner cet attribut à une machine. Néanmoins posséder un module convenable de prise de décision défaut/aléatoire lié au désir simulerait encore mieux le comportement humain et l'imiterait. « Nous pourrions avions différents choix ayant chacun une probabilité de succès basé sur le passé: -90% -88% -85% » comme expliqué précédemment. Ainsi l'IA choisira généralement le premier choix mais pour une fois l'IA pourrait choisir le 2e choix et voir ce qui se passe. Ceci pourrait être considéré comme un « désir » Cette fausse simulation peut aussi s'appliquer à la construction du raisonnement. Même si on l'applique conformément au raisonnement pratique de Kant, nous avons encore à forger une « décision morale » basé sur ce que notre CPS a comme en ensemble de règles a-priori et faire en sorte que le programmeur fournisse à l'IA les règles initiales. IV Conclusion En quelques mots je voudrais m'excuser pour le style assez sec de cet article, ça a débuté comme une publication et a fini par devenir mon futur hobby, une projet à part. Il est possible que nous napprochions jamais du design d'une véritable conscience artificielle mais l'introduction de ce modèle aboutira sûrement à de nombreux développements qui pourraient faciliter les innovations futures. J'espère que la lecture de cet article fut suffisamment excitante pour que parmi vous autant de personnes que possibles s'intéressent aux développements futur dans ce merveilleux domaine. -C c@cdej.org