Devoir de Philosophie

INTELLIGENCE ARTIFICIELLE

Publié le 02/05/2019

Extrait du document

RECONNAISSANCE DE FORMES ET DE DISTANCES

 

La recherche en intelligence artificielle étudie le problème complexe de la perception visuelle des machines. Il ne suffit pas de relier une caméra à un ordinateur pour lui permettre de « voir ». Il faut faire en sorte qu’il comprenne les signaux binaires que la caméra lui envoie.

Pour obtenir ce résultat, différentes phases de traitement sont nécessaires et les résultats sont encore bien loin d’être satisfaisants. La première phase consiste à faire analyser à la machine des objets très simples, généralement des volumes, tels que des pyramides, des cubes ou des parallélépipèdes. Ces figures sont éclairées de façon assez précise, certains côtés restant dans l’ombre. Le passage lumière-ombre est enregistré par la machine sous la forme d’un bord ou d’une arête, selon le nombre de côtés qui se coupent. Ensuite, on calcule le nombre des arêtes et des bords qui se succèdent sans solution de continuité et on obtient, de la sorte, la représentation de la figure que l’ordinateur doit analyser.

Le premier élément du dispositif est la caméra. Au moyen de caméras à semi-conducteurs, l’image est mise au point sur un écran que nous pouvons nous représenter comme une mosaïque formée de différents éléments photosensibles, dits pixels. Le nombre de pixels indique le degré de résolution de la caméra. Chaque pixel est défini par deux coordonnées, qui indiquent le lieu où se trouve ce pixel et l’état d’éclairage qui l’active. À ce stade, on procède au traitement des données provenant des pixels. Si les données étaient analysées dans leur totalité, les calculs seraient extrêmement longs. Or certains pixels donnent des informations très similaires. Il existe donc des procédures qui simplifient la tâche du processeur. En pratique, si deux pixels se trouvent sur le même côté d’un solide et s’ils sont éclairés de la même façon, leurs valeurs sont associées et traitées ensemble. Puis ces données sont présentées sous une forme plus compacte et plus efficace. À cette fin, l’analyse de « connectivité » permet de ne déterminer que les pixels actifs, tandis que les autres sont traités comme des 0. Seuls les pixels connectés sont calculés, de façon à obtenir une description numérique de la situation physique qui s’est présentée à la caméra.

Ainsi, on enregistre l’image et on la compare avec la base de connaissances que la machine a stockée. Cette comparaison fournira la reconnaissance, c'est-à-dire la détermination du type d’objet présent devant la machine. Les derniers développements concernent la compréhension d’images à trois dimensions et l’évaluation de la distance dans l’espace. À cette fin, on emploie deux caméras pour reproduire la disparité binoculaire humaine - c'est-à-dire la différence de position de chaque œil - afin de restituer les distances. Une autre méthode consiste à organiser les images à percevoir selon un principe découvert par Bela Julesz, dit principe des stéréogrammes fortuits. Pour réaliser les conditions requises par cette méthode, on a créé des algorithmes bien précis qui décomposent les images en petits points et les disposent de façon décalée. De cette façon, la disparité est affectée à l’objet et non à la position des yeux.

Parmi les approches les plus prometteuses, signalons celle des réseaux neuronaux. Ces nouveaux types d’ordinateur, conçus sur le modèle de la structure du cerveau, sont entraînés à apprendre directement par l’« observation » des objets, sans passer par la codification explicite des formes. Les réseaux « s’adaptent » par des processus d’apprentissage guidés par des opérateurs humains.

 

 

RECONNAISSANCE DE LA VOIX ET DU LANGAGE HUMAINS

 

Les applications de l’intelligence artificielle qui auront sans doute le succès commercial le plus important concernent la reconnaissance et la traduction du langage humain. Quand il sera possible de reconnaître de manière fiable la voix humaine, on pourra avoir des systèmes de dictée automatique, de traduction automatique et des systèmes de sécurité basés sur la voix.

Le premier problème posé par la reconnaissance vocale est celui de la transformation du signal continu de la voix en signal discret, c'est-à-dire en séquences binaires que traitent les ordinateurs. Ce processus risque de s’accompagner d’une perte d’information. Les systèmes de reconnaissance les plus simples sont en mesure de reconnaître une centaine de mots émis par un seul locuteur. Les systèmes plus complexes reconnaissent un grand nombre de mots indépendamment de celui qui les prononce.

Une grande partie de l’analyse de la voix est effectuée directement sur les spectres acoustiques, c'est-à-dire sur les ondes sonores générées par la voix humaine. La première tâche du système est la détermination du début et de la fin des mots. Puis, on passe à une phase de normalisation, au cours de laquelle les signaux sont ramenés à des caractéristiques standard. Par la suite, les propriétés de base du signal sont identifiées. À ce stade, on compare le prototype engendré de cette façon avec les modèles insérés dans la mémoire.

La phase suivante - que les systèmes les plus récents cherchent à atteindre - prévoit l’insertion de structures de contrôle des erreurs fondées sur la pré-reconnaissance des mots au moment même où ils sont exprimés sans attendre qu’ils soient entièrement prononcés. Ces systèmes s’avèrent particulièrement utiles en cas de perturbations du signal, comme cela peut arriver, par exemple, au cours d’une conversation téléphonique. Les résultats les plus intéressants ont été obtenus au moyen de réseaux neuronaux : ces nouveaux ordinateurs, qui miment le comportement du cerveau, s’adaptent à la tâche, se spécialisent de plus en plus, et produisent d’excellents résultats.

Les recherches sur la traduction automatique sont également riches d’enseignements. Les premiers chercheurs croyaient qu’il était possible d’effectuer une traduction mot à mot. Aujourd’hui, on a compris que la traduction automatique nécessitait l’existence dans l’ordinateur des structures de la syntaxe tant de la langue source (celle qu’il faut traduire) que de la langue cible (celle vers laquelle on traduit). Pour effectuer cette tâche, la phrase à traduire est analysée du point de vue syntaxique et du point de vue sémantique (voir langage), puis la traduction est effectuée dans une « interlangue » spécifique à la machine. Ensuite, cette interlangue est traduite dans la langue cible, en faisant appel à nouveau à une analyse syntaxique et sémantique.

Les systèmes de traduction automatique prévoient encore la présence d’un opérateur humain qui puisse indiquer à la machine l’existence de subordonnées implicites ou, dans le cas de constructions syntaxiques particulièrement complexes, la place du sujet, du verbe et du complément.

 

 

RÉSEAUX NEURONAUX ET MODÈLES DU CERVEAU HUMAIN

 

Par le terme de « réseaux neuronaux », on entend un nouveau type d’ordinateur dont l’architecture, c'est-à-dire la structure de base, imite la structure du cerveau humain. Au lieu de travailler en série comme les ordinateurs normaux, les réseaux neuronaux (ou réseaux de neurones) sont composés de très nombreuses unités élémentaires étroitement liées, dont chacune résout une petite partie du problème, de façon analogue à celle dont les différents neurones du cerveau sont liés entre eux. Ces unités, toutes ensemble, parviennent à une solution de façon coordonnée et unitaire.

Cette nouvelle idée qui consiste à changer le matériel, et pas seulement le logiciel, est liée au paradoxe des « cent pas ». Quand nous saisissons un objet au vol, notre réaction dure environ 100 millisecondes. Si notre cerveau était une machine sérielle, procédant pas à pas et puisque les neurones mettent une milliseconde pour réagir, nous n’aurions à notre disposition que 100 pas de traitement. Or aucun calcul de 100 pas seulement ne peut être suffisant pour traiter une « prise au vol ». Les ordinateurs ont un temps de traitement d’au moins un millionième de seconde (en réalité ils sont plus rapides), et ils disposeraient, par conséquent, de bien plus de cent pas de traitement. Mais, en fait, aucun robot n’est en mesure de saisir un objet au vol, alors que nous, nous pouvons le faire. Comment est-il possible, par conséquent, que celui qui ne dispose que de 100 pas réussisse à faire ce que celui qui en a des millions ne peut pas faire ? La réponse réside dans la capacité du cerveau à traiter les informations en parallèle. De cette façon, il y a beaucoup plus de 100 pas de traitement accomplis en réalité. Les réseaux neuronaux ont été développés à partir de cette idée.

Un nombre élevé de réseaux neuronaux actuellement à l’étude sont des modèles théoriques qui utilisent des calculs mathématiques et qui sont traités par des calculateurs sériels. Certains groupes de recherche, cependant, ont construit de véritables machines parallèles, composées de centaines de microprocesseurs reliés entre eux. Les connexions déterminent l’intelligence de la machine : plus il y en a et plus la richesse de traitement de la machine est grande. La qualité des connexions est également importante. Si deux unités d’un réseau, disons A et B, s’échangent des messages très fréquemment, alors leur connexion sera renforcée, en ce sens qu’un message qui arrive à A depuis B aura une valeur supérieure à celles des messages qui parviennent à A depuis d’autres unités possibles C, D, etc.

Les réseaux neuronaux sont particulièrement efficaces dans l’exécution d’une série de tâches que les anciens calculateurs sériels, quoique dotés de programmes d’intelligence artificielle, ne réussissent pas à faire. Les tâches de reconnaissance de formes et de sons, par exemple, sont mieux accomplies au moyen des réseaux, car ceux-ci « s’adaptent » à la tâche, variant la force des connexions entre les unités qui sont fréquemment activées ensemble. L’adaptation est obtenue par des processus d’apprentissage guidés par un opérateur humain. À la différence des ordinateurs classiques, l’opérateur ne dit pas explicitement à la machine ce qu’elle doit chercher, mais il lui dit où elle se trompe. À chaque erreur, la connexion sur les unités est sanctionnée, et, par conséquent, remise à zéro, tandis qu’à chaque épreuve correcte, elle est récompensée et, par conséquent, renforcée. De cette façon, le réseau traverse un processus de sélection qui le rend optimal pour une tâche donnée, même s’il est en mesure d’effectuer des tâches analogues à celle pour laquelle il a été sélectionné. Les réseaux sont par conséquent optimaux pour toutes les tâches où il n’est pas facile de dire ce qui sert pour résoudre le problème. Ces tâches sont la reconnaissance de la voix, des images, de la calligraphie, ou bien la classification de groupes fortuits d’objets.

 

Puisqu’ils sont réalisés comme des cerveaux, les réseaux présentent certaines caractéristiques intéressantes. Si on enlève certaines connexions, le système ne s’arrête pas complètement, comme c’est le cas du calculateur sériel, mais il présente une perte de capacités, un peu comme c’est le cas pour les êtres humains qui vieillissent. En outre, si la machine est en mesure de résoudre un certain problème, il est très probable qu’elle sache résoudre des problèmes analogues et que ses capacités faiblissent au fur et à mesure que l’on s’éloigne du problème de base, même si on le fait de façon continue. Cet aspect rend les réseaux neuronaux plus semblables à l’intelligence naturelle que les calculateurs sériels dotés de programmes d’intelligence artificielle. Le courant de pensée qui est à la base de l’étude des réseaux neuronaux s’appelle le « connexionnisme ».

« 2 côté ? Si, après une longue « conversation » interactive, vous pensez parler avec une personne en chair et os et que vous découvrez que votre interlocuteur est un ordinateur, alors, celui-ci a passé le test et il peut être considéré comme intelligent. Certaines machines ont déjà réussi le test de Turing.

Mais tous les chercheurs ne s’accordent pas pour accepter l’idée que les ordinateurs puissent être intelligents. Objectifs de l’I.

A. L’intelligence artificielle cherche à suivre le modèle proposé par Turing.

Au lieu de réaliser des machines en mesure d’accomplir des tâches impossibles pour un être humain, elle se propose de réaliser des systèmes qui possèdent les mêmes capacités, ou incapacités, que l’être humain moyen.

Il existe deux stratégies générales pour accomplir cette tâche : simuler l’intelligence humaine dans tous ses processus, ou bien ne simuler que les résultats produits par l’intelligence humaine. Il s’agit de deux conceptions différentes.

La première a pour but de réaliser des systèmes pouvant maîtriser les théories de l’esprit humain et, par conséquent, de recréer de véritables esprits artificiels.

La deuxième se contente de réaliser des machines dotées d’une intelligence spécifique.

C’est dans le cadre de la seconde approche qu’ont été enregistrés les développements les plus intéressants de cette théorie, à savoir les systèmes experts. LA NAISSANCE DE L’INTELLIGENCE ARTIFICIELLE La théorie qui établit la possibilité de la réalisation d’une intelligence artificielle se fonde sur l’hypothèse que la pensée humaine n’est autre qu’une série de calculs complexes effectués sur les symboles internes de l’esprit, exprimés en un code encore mystérieux.

Cette idée a plusieurs fois été abordée par les philosophes au cours de l’histoire, notamment par Hobbes, au XVII esiècle, puis par Leibniz, mais à l’heure actuelle, il est devenu possible, semble-t-il, de la mettre en pratique. L’histoire de l’intelligence artificielle se détache de celle de l’informatique en 1956. Cette année-là, les experts les plus importants du secteur, Marvin Minsky, Seymour Papert, Allen Newell, Herbert Simon et John McCarthy, se réunirent au cours d’un séminaire devenu célèbre.

Ils décidèrent que les résultats que les machines électroniques donnaient à l’époque pouvaient fournir un excellent instrument destiné à la vérification de la vieille idée que le raisonnement peut être assimilé à un calcul.

Ces chercheurs établirent les lignes théoriques principales de l’intelligence artificielle et lui donnèrent le nom sous lequel nous connaissons encore aujourd’hui cette discipline. L’objectif était de réaliser des modèles mathématiques et des modèles de calcul du raisonnement humain capables de reproduire, du point de vue comportemental, les conditions effectives du déroulement du raisonnement d’un être humain.

Ainsi, si une personne devait résoudre un problème donné, et qu’elle mettait un certain temps à trouver la solution, en faisant parfois des erreurs, la machine devait effectuer la même tâche de la même manière, en commettant quelques erreurs et en mettant un certain temps. Premières difficultés. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles