Les racines de l’Intelligence Artificielle moderne, ou IA, remontent aux philosophes classiques de la Grèce et à leurs efforts pour modéliser la pensée humaine en tant que système de symboles. Plus récemment, dans les années 1940, une école de pensée appelée « connectionisme” a été développée pour étudier le processus de pensée. En 1950, un homme nommé Alan Turing a écrit un article suggérant comment tester une machine « pensante”. Il croyait que si une machine pouvait poursuivre une conversation au moyen d’un téléimprimeur, imitant un humain sans différences notables, la machine pourrait être décrite comme pensant. Son article a été suivi en 1952 par le modèle de Hodgkin-Huxley du cerveau en tant que neurones formant un réseau électrique, avec des neurones individuels déclenchant des impulsions tout ou rien (on / off). Ces événements, lors d’une conférence parrainée par le Dartmouth College en 1956, ont contribué à susciter le concept d’intelligence artificielle.
Jonathan Crane est le CCO d’Ipsoft, les créateurs de l’assistant virtuel appelé Amelia. Il avait ceci à dire à propos de l’état actuel de l’intelligence artificielle:
« L’IA entraîne un énorme changement dans la façon dont nous pouvons cibler notre marketing et notre publicité, même pour les petites entreprises. Cela signifie que les entreprises sont en mesure de cibler leurs « dépenses et d’augmenter le retour sur investissement » et de permettre à la publicité de faire ce qu’elle devrait, en donnant aux gens des publicités qu’ils veulent voir. »
M. Crane fait référence à l’utilisation du Big Data par l’IA. L’intelligence artificielle peut être combinée avec le Big Data pour gérer des tâches complexes et peut traiter les informations à des vitesses beaucoup plus rapides que tous les systèmes précédents.
Le développement de l’IA n’a pas été rationalisé et efficace. À partir d’un concept passionnant et imaginatif en 1956, le financement de la recherche en intelligence artificielle a été réduit dans les années 1970, après que plusieurs rapports ont critiqué le manque de progrès. Les efforts visant à imiter le cerveau humain, appelés « réseaux de neurones”, ont été expérimentés et abandonnés. Les programmes fonctionnels les plus impressionnants ne pouvaient gérer que des problèmes simplistes et étaient décrits comme des jouets par les non impressionnés. Les chercheurs en IA avaient été trop optimistes pour établir leurs objectifs et avaient émis des hypothèses naïves sur les problèmes qu’ils rencontreraient. Lorsque les résultats promis ne se sont jamais concrétisés, il ne devrait pas être surprenant que leur financement ait été réduit.
Le Premier hiver de l’IA
Les chercheurs en IA ont dû faire face à deux limitations très basiques, un manque de mémoire et des vitesses de traitement qui semblent abyssales par rapport aux normes actuelles. Tout comme la recherche sur la gravité à l’époque, la recherche sur l’intelligence artificielle a vu son financement gouvernemental coupé, et l’intérêt a diminué. Cependant, contrairement à gravity, la recherche sur l’IA a repris dans les années 1980, les États-Unis et la Grande-Bretagne fournissant des fonds pour concurrencer le nouveau projet informatique de « cinquième génération” du Japon, et leur objectif de devenir le leader mondial de la technologie informatique. Le laps de temps entre 1974 et 1980 est devenu connu comme « Le Premier hiver de l’IA.’
Le Premier hiver de l’IA s’est terminé par l’introduction de « Systèmes experts”, qui ont été développés et rapidement adoptés par des entreprises compétitives du monde entier. L’objectif principal de la recherche sur l’IA était désormais d’accumuler les connaissances de divers experts. L’IA a également bénéficié du renouveau du connexionnisme dans les années 1980.
Cybernétique et réseaux de neurones
La cybernétique étudie les systèmes de contrôle automatique. Deux exemples sont le cerveau et le système nerveux, et les systèmes de communication utilisés par les ordinateurs. La cybernétique a été utilisée pour former la version moderne des réseaux de neurones. Cependant, les réseaux de neurones ne connaîtront un succès financier que dans les années 1990, lorsqu’ils commenceront à être utilisés pour exploiter des programmes de reconnaissance optique de caractères et des programmes de reconnaissance de formes vocales.
Systèmes experts
Les Systèmes Experts représentent une approche de la recherche en intelligence Artificielle qui est devenue populaire tout au long des années 1970.Un Système Expert utilise les connaissances d’experts pour créer un programme. Les systèmes experts peuvent répondre à des questions et résoudre des problèmes dans un domaine de connaissances clairement défini, et utilisent des « règles” de logique. Leur conception simpliste facilitait raisonnablement la conception, la construction et la modification des programmes. Les programmes de dépistage des prêts bancaires constituent un bon exemple de Système expert du début des années 1980, mais il existe également des applications médicales et commerciales utilisant des Systèmes experts. D’une manière générale, ces programmes simples sont devenus très utiles et ont commencé à économiser de grandes sommes d’argent aux entreprises.
Par exemple, en 1980, Digital Equipment Corporation a commencé à exiger que son équipe de vente utilise un système expert nommé XCON lors de la passation des commandes des clients. DEC vendait une large gamme de composants informatiques, mais la force de vente ne connaissait pas particulièrement ce qu’elle vendait. Certaines commandes combinaient des composants qui ne fonctionnaient pas ensemble et certaines commandes manquaient de composants nécessaires. Avant XCON, les conseillers techniques examinaient les commandes, identifiaient les combinaisons non fonctionnelles et fournissaient des instructions pour l’assemblage du système. Étant donné que ce processus (y compris les communications avec le client) a causé un goulot d’étranglement chez DEC et que de nombreux efforts pour l’automatiser avaient échoué, DEC était prêt à essayer une technologie relativement nouvelle dans ce genre de situation. En 1986, le système économisait 40 millions de dollars par an en décembre.
XCON (parfois appelé R1) était un grand système avec environ 750 règles, et même s’il pouvait traiter plusieurs commandes, il devait encore être ajusté et modifié avant que DEC puisse l’utiliser efficacement. DEC a appris que le système ne pouvait pas être utilisé tel qu’il avait été conçu à l’origine et qu’ils n’avaient pas l’expertise nécessaire pour le maintenir. Les ”connaissances » du système devaient être collectées et ajoutées par des personnes formées aux Systèmes experts et à l’acquisition de connaissances. Beaucoup de ses conseillers techniques étaient des ingénieurs, mais ils n’étaient pas des experts en IA, et l’équipe d’ingénieurs que DEC a finalement organisée était « familière” avec l’IA, mais les membres du groupe n’ont pas été choisis pour leur expertise en intelligence artificielle (il n’y avait tout simplement pas beaucoup d’experts disponibles), et personne dans le groupe ne connaissait la langue dans laquelle il était écrit, OPS-4. Après environ un an, avec une énorme aide de Carnegie-Mellon (les auteurs originaux du programme), et après avoir atteint près de 1000 règles, DEC a pu prendre en charge la programmation et la maintenance de XCON. L’intégration de XCON dans la culture DEC a été une expérience difficile, mais réussie. La direction a appris qu’un système expert nécessite du personnel spécialement formé, et ils ont pris la responsabilité de former et d’embaucher des personnes pour répondre à ces besoins.
À son apogée, XCON a 2 500 règles et a considérablement évolué (bien qu’actuellement sa popularité ait diminué, car elle est devenue un peu un dinosaure). XCON a été le premier système informatique à utiliser des techniques d’IA pour résoudre des problèmes du monde réel dans un cadre industriel. En 1985, les entreprises du monde entier avaient commencé à utiliser des systèmes experts et un nouveau domaine de carrière s’était développé pour les soutenir. XCON pouvait configurer des commandes client pour tous les systèmes informatiques VAX-11 fabriqués aux États-Unis, mais le système devait être continuellement ajusté et mis à jour, et nécessitait une équipe informatique à temps plein.
Le deuxième hiver de l’IA
Le domaine de l’IA a connu un autre hiver important de 1987 à 1993. Ce deuxième ralentissement de la recherche en IA a coïncidé avec XCON et d’autres premiers ordinateurs Système experts, considérés comme lents et maladroits. Les ordinateurs de bureau devenaient très populaires et remplaçaient les banques d’ordinateurs plus anciennes, plus volumineuses et beaucoup moins conviviales. Finalement, les systèmes experts sont tout simplement devenus trop chers à entretenir, par rapport aux ordinateurs de bureau. Ils étaient difficiles à mettre à jour et ne pouvaient pas « apprendre. »Ce sont des problèmes que les ordinateurs de bureau n’avaient pas. À peu près au même moment, la DARPA (Defense Advanced Research Projects Agency) a conclu que l’IA ne serait pas « la prochaine vague” et a redirigé ses fonds vers des projets jugés plus susceptibles de fournir des résultats rapides. En conséquence, à la fin des années 1980, le financement de la recherche sur l’IA a été fortement réduit, créant le deuxième hiver de l’IA.
La conversation avec les ordinateurs Devient une réalité
Au début des années 1990, la recherche en intelligence artificielle s’est concentrée sur ce qu’on appelle un agent intelligent. Ces agents intelligents peuvent être utilisés pour des services de récupération de nouvelles, des achats en ligne et la navigation sur le Web. Les agents intelligents sont aussi parfois appelés agents ou robots. Avec l’utilisation des programmes Big Data, ils ont progressivement évolué en assistants numériques personnels, ou assistants virtuels.
Actuellement, des entreprises technologiques géantes telles que Google, Facebook, IBM et Microsoft étudient un certain nombre de projets d’intelligence artificielle, y compris des assistants virtuels. Ils sont tous en concurrence pour créer des assistants tels que M de Facebook, ou Cortana de Microsoft, ou Siri d’Apple.L’objectif de l’intelligence artificielle n’est plus de créer une machine intelligente capable d’imiter la conversation humaine avec un télétype. L’utilisation du Big Data a permis à l’IA de franchir une nouvelle étape évolutive. Maintenant, les objectifs sont de développer des logiciels capables de parler dans une langue naturelle, comme l’anglais, et d’agir comme votre assistant virtuel. Ces assistants virtuels représentent l’avenir de la recherche en IA et peuvent prendre la forme de robots pour une aide physique, ou être logés dans des ordinateurs portables et aider à prendre des décisions commerciales, ou ils peuvent être intégrés au programme de service à la clientèle d’une entreprise et répondre au téléphone. L’intelligence artificielle évolue toujours et trouve de nouveaux usages.