Die Wurzeln der modernen künstlichen Intelligenz oder KI gehen auf die klassischen Philosophen Griechenlands und ihre Bemühungen zurück, das menschliche Denken als Symbolsystem zu modellieren. In jüngerer Zeit, in den 1940er Jahren, wurde eine Denkschule namens „Konnektionismus“ entwickelt, um den Denkprozess zu untersuchen. Im Jahr 1950 schrieb ein Mann namens Alan Turing ein Papier, das vorschlug, wie man eine „denkende“ Maschine testet. Er glaubte, wenn eine Maschine ein Gespräch über einen Fernschreiber führen und einen Menschen ohne erkennbare Unterschiede imitieren könnte, könnte die Maschine als Denken bezeichnet werden. Seiner Arbeit folgte 1952 das Hodgkin-Huxley-Modell des Gehirns als Neuronen, die ein elektrisches Netzwerk bilden, wobei einzelne Neuronen in Alles-oder-Nichts-Impulsen (Ein / Aus) feuern. Diese Ereignisse auf einer Konferenz, die 1956 vom Dartmouth College gesponsert wurde, trugen dazu bei, das Konzept der künstlichen Intelligenz zu entfachen.Jonathan Crane ist der CCO von Ipsoft, den Machern des virtuellen Assistenten namens Amelia. Er hatte Folgendes über den aktuellen Stand der künstlichen Intelligenz zu sagen:
„KI führt zu einer großen Veränderung in der Art und Weise, wie wir unser Marketing und unsere Werbung auch für kleinere Unternehmen ausrichten können. Dies bedeutet, dass Unternehmen in der Lage sind, ihre Ausgaben gezielt zu steuern und den ROI zu steigern und Werbung zu ermöglichen, das zu tun, was sie sollte, und den Menschen Werbung zu geben, die sie sehen möchten.“
Mr. Crane bezieht sich auf die Verwendung von Big Data durch KI. Künstliche Intelligenz kann mit Big Data kombiniert werden, um komplexe Aufgaben zu bewältigen, und kann die Informationen viel schneller verarbeiten als alle vorherigen Systeme.
Die Entwicklung von KI war nicht rationalisiert und effizient. Beginnend als aufregendes, fantasievolles Konzept im Jahr 1956 wurde die Forschungsförderung für künstliche Intelligenz in den 1970er Jahren gekürzt, nachdem mehrere Berichte mangelnde Fortschritte kritisiert hatten. Bemühungen, das menschliche Gehirn nachzuahmen, sogenannte „neuronale Netze“, wurden experimentiert und fallen gelassen. Die beeindruckendsten, funktionalen Programme waren nur in der Lage, simple Probleme zu lösen, und wurden von den Unbeeindruckten als Spielzeug beschrieben. KI-Forscher waren bei der Festlegung ihrer Ziele zu optimistisch gewesen und hatten naive Annahmen über die Probleme getroffen, auf die sie stoßen würden. Als die von ihnen versprochenen Ergebnisse nie eintraten, sollte es nicht überraschen, dass ihre Finanzierung gekürzt wurde.
Der erste KI-Winter
KI-Forscher mussten sich mit zwei sehr grundlegenden Einschränkungen auseinandersetzen, nicht genügend Speicher und Verarbeitungsgeschwindigkeiten, die nach heutigen Maßstäben miserabel erscheinen. Ähnlich wie die Gravitationsforschung zu dieser Zeit wurde die Forschung zur künstlichen Intelligenz von der Regierung gekürzt, und das Interesse sank. Im Gegensatz zu Gravity wurde die KI-Forschung jedoch in den 1980er Jahren wieder aufgenommen, wobei die USA und Großbritannien Mittel zur Verfügung stellten, um mit Japans neuem Computerprojekt „Fifth Generation“ zu konkurrieren und ihr Ziel zu erreichen, weltweit führend in der Computertechnologie zu werden. Die Zeitspanne zwischen 1974 und 1980 wurde als Der erste KI-Winter bekannt.Der erste KI-Winter endete mit der Einführung von „Expertensystemen“, die von wettbewerbsfähigen Unternehmen auf der ganzen Welt entwickelt und schnell übernommen wurden. Der primäre Fokus der KI-Forschung lag nun auf dem Thema, Wissen von verschiedenen Experten zu sammeln. KI profitierte auch von der Wiederbelebung des Konnektionismus in den 1980er Jahren.
Kybernetik und neuronale Netze
Kybernetik studiert automatische Steuerungssysteme. Zwei Beispiele sind das Gehirn und das Nervensystem sowie die von Computern verwendeten Kommunikationssysteme. Kybernetik wurde verwendet, um die moderne Version neuronaler Netze zu trainieren. Neuronale Netze wurden jedoch erst in den 1990er Jahren finanziell erfolgreich, als sie zum Betrieb von optischen Zeichenerkennungsprogrammen und Sprachmustererkennungsprogrammen eingesetzt wurden.
Expertensysteme
Expertensysteme stellen einen Ansatz in der Forschung zur künstlichen Intelligenz dar, der in den 1970er Jahren populär wurde. Ein Expertensystem nutzt das Wissen von Experten, um ein Programm zu erstellen. Expertensysteme können Fragen beantworten und Probleme in einem klar definierten Wissensbereich lösen und verwenden „Regeln“ der Logik. Ihr simples Design machte es einigermaßen einfach, Programme zu entwerfen, zu erstellen und zu modifizieren. Bankkredit-Screening-Programme bieten ein gutes Beispiel für ein Expertensystem aus den frühen 1980er Jahren, aber es gab auch medizinische und vertriebliche Anwendungen mit Expertensystemen. Im Allgemeinen wurden diese einfachen Programme sehr nützlich und begannen, Unternehmen viel Geld zu sparen.
Zum Beispiel begann die Digital Equipment Corporation 1980, dass ihr Verkaufsteam ein Expertensystem namens XCON verwenden musste, um Kundenaufträge zu erteilen. DEC verkaufte eine breite Palette von Computerkomponenten, aber die Vertriebsmitarbeiter wussten nicht genau, was sie verkauften. Einige Bestellungen kombinierten Komponenten, die nicht zusammenarbeiteten, und bei einigen Bestellungen fehlten die benötigten Komponenten. Vor der XCON überprüften technische Berater die Bestellungen, identifizierten nicht funktionierende Kombinationen und gaben Anweisungen zum Zusammenbau des Systems. Da dieser Prozess (einschließlich der Kommunikation mit dem Kunden) bei DEC einen Engpass verursachte und viele Bemühungen zur Automatisierung fehlgeschlagen waren, war DEC bereit, eine Technologie auszuprobieren, die für diese Art von Situation relativ neu war. Bis 1986 wurden durch das System jährlich 40 Millionen US-Dollar eingespart.
XCON (manchmal auch als R1 bezeichnet) war ein großes System mit ungefähr 750 Regeln, und obwohl es mehrere Aufträge verarbeiten konnte, musste es noch angepasst und optimiert werden, bevor DEC es effizient einsetzen konnte. DEC erfuhr, dass das System nicht wie ursprünglich geplant verwendet werden konnte und dass sie nicht über das Fachwissen verfügten, um es zu warten. Das „Wissen“ im System musste von Personen gesammelt und hinzugefügt werden, die in Expertensystemen und im Wissenserwerb geschult waren. Viele seiner technischen Berater waren Ingenieure, aber sie waren keine KI-Experten, und das Team von Ingenieuren, die er schließlich organisierte, war mit KI „vertraut“, aber die Mitglieder der Gruppe wurden nicht wegen ihres Fachwissens über künstliche Intelligenz ausgewählt (es standen einfach nicht so viele Experten zur Verfügung), und niemand in der Gruppe war mit der Sprache, in der sie geschrieben war, OPS-4, vertraut. Nach ungefähr einem Jahr, mit einer großen Menge an Unterstützung von Carnegie-Mellon (den ursprünglichen Autoren des Programms) und auf fast 1000 Regeln angewachsen, konnte DEC die Programmierung und Wartung von XCON übernehmen. Die Integration von XCON in die DEC-Kultur war eine schwierige, aber erfolgreiche Erfahrung. Das Management eines Expertensystems erfordert speziell geschultes Personal, und sie übernahmen die Verantwortung für die Schulung und Einstellung von Mitarbeitern, um diese Anforderungen zu erfüllen.
Auf seinem Höhepunkt hatte XCON 2.500 Regeln und hatte sich erheblich weiterentwickelt (obwohl seine Popularität derzeit nachgelassen hat, da es ein bisschen wie ein Dinosaurier geworden ist). XCON war das erste Computersystem, das KI-Techniken zur Lösung realer Probleme in einem industriellen Umfeld einsetzte. Bis 1985 hatten Unternehmen auf der ganzen Welt begonnen, Expertensysteme einzusetzen, und ein neues Berufsfeld entwickelte sich, um sie zu unterstützen. XCON konnte Kundenaufträge für alle VAX-11-Computersysteme konfigurieren, die in den USA hergestellt wurden, aber das System musste kontinuierlich angepasst und aktualisiert werden und erforderte ein Vollzeit-IT-Team.
Der zweite KI-Winter
Das KI-Feld erlebte von 1987 bis 1993 einen weiteren großen Winter. Diese zweite Verlangsamung der KI-Forschung fiel mit XCON und anderen frühen Expertensystemcomputern zusammen, die als langsam und ungeschickt angesehen wurden. Desktop-Computer wurden immer beliebter und verdrängten die älteren, sperrigeren, viel weniger benutzerfreundlichen Computerbanken. Schließlich wurden Expertensysteme im Vergleich zu Desktops einfach zu teuer in der Wartung. Sie waren schwer zu aktualisieren, und konnte nicht „lernen.“ Dies waren Probleme, die Desktop-Computer nicht hatten. Etwa zur gleichen Zeit kam die DARPA (Defense Advanced Research Projects Agency) zu dem Schluss, dass KI nicht „die nächste Welle“ sein würde, und leitete ihre Mittel auf Projekte um, die eher schnelle Ergebnisse liefern würden. Infolgedessen wurden in den späten 1980er Jahren die Mittel für die KI-Forschung stark gekürzt, wodurch der zweite KI-Winter entstand.
Konversation mit Computern wird Realität
In den frühen 1990er Jahren verlagerte die Forschung zur künstlichen Intelligenz ihren Fokus auf etwas, das als intelligenter Agent bezeichnet wird. Diese intelligenten Agenten können für Nachrichtenabrufdienste, Online-Shopping und das Surfen im Internet verwendet werden. Intelligente Agenten werden manchmal auch als Agenten oder Bots bezeichnet. Mit dem Einsatz von Big-Data-Programmen haben sie sich allmählich zu persönlichen digitalen Assistenten oder virtuellen Assistenten entwickelt.Derzeit forschen riesige Tech-Unternehmen wie Google, Facebook, IBM und Microsoft an einer Reihe von Projekten für künstliche Intelligenz, darunter virtuelle Assistenten. Sie alle konkurrieren um Assistenten wie Facebooks M oder Cortana von Microsoft oder Apples Siri.Das Ziel der künstlichen Intelligenz besteht nicht mehr darin, eine intelligente Maschine zu schaffen, die menschliche Konversation mit einem Fernschreiber nachahmen kann. Der Einsatz von Big Data hat der KI den nächsten Evolutionsschritt ermöglicht. Ziel ist es nun, Softwareprogramme zu entwickeln, die in einer natürlichen Sprache wie Englisch sprechen und als virtueller Assistent fungieren können. Diese virtuellen Assistenten repräsentieren die Zukunft der KI-Forschung und können die Form von Robotern für physische Hilfe annehmen oder in Laptops untergebracht sein und bei Geschäftsentscheidungen helfen, oder sie können in das Kundendienstprogramm eines Unternehmens integriert werden und das Telefon beantworten. Künstliche Intelligenz entwickelt sich immer noch weiter und findet neue Anwendungen.