korzenie współczesnej sztucznej inteligencji, czyli sztucznej inteligencji, sięgają klasycznych filozofów Grecji i ich wysiłków na rzecz modelowania ludzkiego myślenia jako systemu symboli. Niedawno, w 1940 roku, szkoła myślenia o nazwie „Konekcjonizm” został opracowany w celu zbadania procesu myślenia. W 1950 roku niejaki Alan Turing napisał artykuł sugerujący, jak przetestować „myślącą” maszynę. Wierzył, że jeśli maszyna może prowadzić rozmowę za pomocą teleprintera, imitując człowieka bez zauważalnych różnic, maszynę można opisać jako myślenie. Jego praca była kontynuowana w 1952 roku przez Hodgkina-Huxleya modelu mózgu jako neuronów tworzących sieć elektryczną, z poszczególnych neuronów wypalania w all-or-nothing (on/off) impulsów. Wydarzenia te, na konferencji sponsorowanej przez Dartmouth College w 1956 roku, przyczyniły się do powstania koncepcji sztucznej inteligencji.
Jonathan Crane jest dyrektorem generalnym Ipsoft, twórcy wirtualnej asystentki o imieniu Amelia. Miał to do powiedzenia na temat obecnego stanu sztucznej inteligencji:
„sztuczna inteligencja napędza ogromną zmianę w sposobie, w jaki możemy kierować nasz marketing i reklamę, nawet dla mniejszych firm. Oznacza to, że firmy są w stanie kierować swoje „wydatki i zwiększyć zwrot z inwestycji” i pozwalają reklamom robić to, co powinny, dając ludziom reklamy, które chcą zobaczyć.”
Pan Crane mówi o wykorzystaniu Big Data przez sztuczną inteligencję. Sztuczna inteligencja może być łączona z Big Data w celu obsługi złożonych zadań i może przetwarzać informacje o wiele szybciej niż jakiekolwiek poprzednie systemy.
rozwój sztucznej inteligencji nie został usprawniony i wydajny. Począwszy od ekscytującej, pomysłowej koncepcji w 1956 roku, finansowanie badań nad sztuczną inteligencją zostało ograniczone w latach 70., po tym jak kilka raportów skrytykowało brak postępu. Próby naśladowania ludzkiego mózgu, zwane „sieciami neuronowymi”, były eksperymentowane i porzucane. Najbardziej imponujące, funkcjonalne programy były w stanie poradzić sobie tylko z prostymi problemami i były opisywane jako zabawki przez niewzruszonych. Badacze sztucznej inteligencji byli zbyt optymistyczni w ustalaniu swoich celów i poczynili naiwne założenia dotyczące problemów, które napotkają. Kiedy obiecane wyniki nigdy się nie zmaterializowały, nie powinno dziwić, że ich fundusze zostały obcięte.
pierwsza zima AI
badacze AI mieli do czynienia z dwoma bardzo podstawowymi ograniczeniami, niewystarczającą ilością pamięci i szybkością przetwarzania, która wydawałaby się fatalna jak na dzisiejsze standardy. Podobnie jak badania grawitacyjne w tym czasie, badania nad sztuczną inteligencją miały ograniczone finansowanie rządowe, a zainteresowanie spadło. Jednak w przeciwieństwie do grawitacji, badania nad sztuczną inteligencją wznowiono w latach 80., A USA i Wielka Brytania zapewniły fundusze na konkurowanie z japońskim projektem komputerowym „piątej generacji”, a ich celem było stanie się światowym liderem w dziedzinie technologii komputerowych. Odcinek czasu między 1974 a 1980 stał się znany jako ” pierwsza zima AI.”
pierwsza zima AI zakończyła się wprowadzeniem „systemów eksperckich”, które zostały opracowane i szybko przyjęte przez konkurencyjne korporacje na całym świecie. Głównym celem badań nad sztuczną inteligencją było teraz gromadzenie wiedzy od różnych ekspertów. W latach 80. XX w.nastąpił także wzrost popularności sieci neuronowych.
Cybernetyka i Sieci neuronowe
Cybernetyka zajmuje się badaniami nad automatycznymi systemami sterowania. Dwa przykłady to mózg i układ nerwowy oraz systemy komunikacyjne używane przez komputery. Cybernetyka została wykorzystana do szkolenia nowoczesnej wersji sieci neuronowych. Jednak Sieci neuronowe nie odniosły sukcesu finansowego aż do lat 90., kiedy zaczęły być używane do obsługi programów optycznego rozpoznawania znaków i programów rozpoznawania wzorców mowy.
systemy eksperckie
systemy eksperckie reprezentują podejście w badaniach nad sztuczną inteligencją, które stało się popularne w latach 70. XX wieku.system ekspercki wykorzystuje wiedzę ekspertów do stworzenia programu. Systemy eksperckie mogą odpowiadać na pytania i rozwiązywać problemy w ramach jasno określonej dziedziny wiedzy, a także posługują się” regułami ” logiki. Ich uproszczona konstrukcja ułatwiła projektowanie, budowanie i modyfikowanie programów. Programy kontroli kredytów bankowych stanowią dobry przykład systemu eksperckiego z początku lat 80., ale istniały również aplikacje medyczne i sprzedażowe wykorzystujące systemy eksperckie. Ogólnie rzecz biorąc, te proste programy stały się bardzo przydatne i zaczęły oszczędzać firmom duże ilości pieniędzy.
na przykład w 1980 r.Digital Equipment Corporation zaczęła wymagać od swojego zespołu sprzedaży korzystania z systemu eksperckiego o nazwie XCON podczas składania zamówień klientów. DEC sprzedawał szeroką gamę komponentów komputerowych, ale dział sprzedaży nie był szczególnie zorientowany w tym, co sprzedawał. Niektóre zamówienia łączyły komponenty, które nie współpracowały ze sobą, a w niektórych zamówieniach brakowało potrzebnych komponentów. Przed XCON doradcy techniczni będą sprawdzać zamówienia, identyfikować niefunkcjonalne kombinacje i dostarczać instrukcje montażu systemu. Ponieważ proces ten (w tym komunikacja z klientem) spowodował wąskie gardło W DEC, a wiele wysiłków na rzecz automatyzacji nie powiodło się, DEC był gotów wypróbować technologię, która była stosunkowo nowa w tej sytuacji. Do 1986 roku system oszczędzał 40 milionów dolarów rocznie.
XCON (czasami określany jako R1) był dużym systemem z około 750 regułami i mimo że mógł przetwarzać wiele zamówień, nadal musiał zostać skorygowany i zmodyfikowany, zanim DEC mógł go efektywnie wykorzystać. DEC dowiedział się, że system nie może być używany tak, jak pierwotnie zaprojektowany, i że nie mają wiedzy, aby go utrzymać. „Wiedza” w systemie musiała być gromadzona i dodawana przez osoby przeszkolone w zakresie systemów eksperckich i zdobywania wiedzy. Wielu jego doradców technicznych było inżynierami, ale nie byli ekspertami w dziedzinie sztucznej inteligencji, a zespół inżynierów Dec ostatecznie zorganizowany był „zaznajomiony” z sztuczną inteligencją, ale członkowie grupy nie zostali wybrani ze względu na swoją wiedzę na temat sztucznej inteligencji (po prostu nie było zbyt wielu ekspertów), a nikt w grupie nie znał języka, w którym był napisany, OPS-4. Po około roku, przy ogromnej pomocy ze strony Carnegie – Mellon (oryginalnych autorów programu) i po rozroście do prawie 1000 zasad, DEC był w stanie przejąć programowanie i utrzymanie XCON. Integracja XCON z kulturą DEC była trudnym, ale udanym doświadczeniem. Kierownictwo nauczyło się, że system ekspercki wymaga specjalnie wyszkolonego personelu, a oni wzięli odpowiedzialność za szkolenie i zatrudnianie ludzi, aby zaspokoić te potrzeby.
w szczytowym momencie xcon ma 2500 zasad i znacznie ewoluował (choć obecnie jego popularność malała, ponieważ stał się nieco dinozaurem). XCON był pierwszym systemem komputerowym wykorzystującym techniki sztucznej inteligencji w rozwiązywaniu rzeczywistych problemów w środowisku przemysłowym. W 1985 roku korporacje na całym świecie zaczęły korzystać z systemów eksperckich i rozwinęła się nowa dziedzina kariery, aby je wspierać. XCON mógł konfigurować zamówienia sprzedaży dla wszystkich systemów komputerowych Vax-11 produkowanych w Stanach Zjednoczonych, ale system musiał być stale dostosowywany i aktualizowany i wymagał pełnoetatowego zespołu IT.
druga Zima AI
w latach 1987-1993 pole AI przeżywało kolejną dużą zimę. To drugie spowolnienie w badaniach nad sztuczną inteligencją zbiegło się z XCON i innymi wczesnymi komputerami systemu eksperckiego, postrzeganymi jako powolne i niezdarne. Komputery stacjonarne stały się bardzo popularne i wypierały starsze, grubsze, znacznie mniej przyjazne dla użytkownika banki komputerowe. Ostatecznie systemy eksperckie stały się po prostu zbyt drogie w utrzymaniu w porównaniu z komputerami stacjonarnymi. Były trudne do aktualizacji i nie mogły się ” nauczyć.”Były to problemy, których nie miały komputery stacjonarne. Mniej więcej w tym samym czasie DARPA (Defense Advanced Research Projects Agency) doszła do wniosku, że sztuczna inteligencja nie będzie „kolejną falą” i przekierowała swoje fundusze na projekty uznane za bardziej prawdopodobne, aby zapewnić szybkie wyniki. W konsekwencji pod koniec lat 80. fundusze na badania nad sztuczną inteligencją zostały mocno obcięte, tworząc drugą zimę sztucznej inteligencji.
rozmowa z komputerami staje się rzeczywistością
we wczesnych latach 90.badania nad sztuczną inteligencją skupiły się na czymś, co nazywa się inteligentnym agentem. Te inteligentne środki mogą być wykorzystywane do usług wyszukiwania wiadomości, zakupów online i przeglądania sieci. Inteligentni agenci są czasami nazywani agentami lub botami. Dzięki wykorzystaniu programów Big Data stopniowo przekształciły się w osobistych asystentów cyfrowych lub wirtualnych asystentów.
obecnie gigantyczne firmy technologiczne, takie jak Google, Facebook, IBM i Microsoft, badają wiele projektów Sztucznej Inteligencji, w tym wirtualnych asystentów. Wszyscy konkurują o tworzenie asystentów, takich jak M Facebooka lub Cortana od Microsoft lub Siri Apple.Celem sztucznej inteligencji nie jest już tworzenie inteligentnej maszyny zdolnej do naśladowania ludzkiej rozmowy za pomocą teletypu. Wykorzystanie Big Data pozwoliło sztucznej inteligencji na kolejny krok ewolucyjny. Teraz, celem jest stworzenie oprogramowania zdolnego do mówienia w naturalnym języku, takim jak angielski, i działać jako wirtualny asystent. Te wirtualne asystentki reprezentują przyszłość badań nad sztuczną inteligencją i mogą mieć formę robotów do pomocy fizycznej lub mogą być umieszczone w laptopach i pomóc w podejmowaniu decyzji biznesowych lub mogą być zintegrowane z programem obsługi klienta firmy i odbierać telefon. Sztuczna inteligencja wciąż ewoluuje i znajduje nowe zastosowania.