data Topics

kf_histai_040316 rötterna till modern artificiell intelligens, eller AI, kan spåras tillbaka till de klassiska filosoferna i Grekland, och deras ansträngningar att modellera mänskligt tänkande som ett system av symboler. På senare tid, på 1940-talet, utvecklades en tankeskola som kallades ”Connectionism” för att studera tankeprocessen. 1950 skrev en man vid namn Alan Turing ett papper som föreslog hur man testar en ”tänkande” maskin. Han trodde att om en maskin kunde föra en konversation genom en teleprinter, imitera en människa utan märkbara skillnader, kunde maskinen beskrivas som tänkande. Hans papper följdes 1952 av Hodgkin-Huxley-modellen av hjärnan som neuroner som bildar ett elektriskt nätverk, med enskilda neuroner som skjuter i allt-eller-ingenting (på/av) pulser. Dessa händelser, vid en konferens sponsrad av Dartmouth College 1956, hjälpte till att utlösa begreppet artificiell intelligens.Jonathan Crane är CCO för Ipsoft, skaparna av den virtuella assistenten som heter Amelia. Han hade detta att säga om det nuvarande tillståndet för artificiell intelligens:

” AI driver en enorm förändring i hur vi kan rikta vår marknadsföring och reklam, även för mindre företag. Detta innebär att företag kan rikta sina ’spendera och öka ROI’ och låta reklam att göra vad det ska, ge människor annonser de vill se.”

Mr Crane hänvisar till AI: s användning av Big Data. Artificiell intelligens kan kombineras med Big Data för att hantera komplexa uppgifter och kan bearbeta informationen i mycket snabbare hastigheter än tidigare system.

utvecklingen av AI har inte effektiviserats och effektiviserats. Med början som ett spännande, fantasifullt koncept 1956 minskades forskningsfinansieringen för artificiell intelligens på 1970-talet, efter att flera rapporter kritiserade bristen på framsteg. Ansträngningar att imitera den mänskliga hjärnan, kallade ”neurala nätverk”, experimenterades med och tappades. De mest imponerande, funktionella programmen kunde bara hantera förenklade problem och beskrevs som leksaker av de ointresserade. AI-forskare hade varit alltför optimistiska när de fastställde sina mål och hade gjort naiva antaganden om de problem de skulle stöta på. När resultaten de lovade aldrig materialiserades, borde det inte bli någon överraskning att deras finansiering minskades.

den första AI vintern
AI forskare hade att göra med två mycket grundläggande begränsningar, inte tillräckligt med minne, och bearbetningshastigheter som verkar urusla av dagens standarder. Precis som gravitationsforskning vid den tiden hade artificiell intelligensforskning sin statliga finansiering minskat och intresset sjönk. Till skillnad från gravitation återupptogs AI-forskningen på 1980-talet, med USA och Storbritannien som finansierade att konkurrera med Japans nya ”femte generationens” datorprojekt och deras mål att bli världsledande inom datateknik. Tiden mellan 1974 och 1980 har blivit känd som ’den första AI-vintern.’

den första AI-vintern slutade med introduktionen av” expertsystem”, som utvecklades och snabbt antogs av konkurrenskraftiga företag över hela världen. Ai-forskningens primära fokus var nu på temat att samla kunskap från olika experter. AI gynnades också av återupplivandet av Connectionism på 1980-talet.

cybernetik och neurala nätverk
Cybernetik studerar automatiska styrsystem. Två exempel är hjärnan och nervsystemet och kommunikationssystemen som används av datorer. Cybernetik har använts för att träna den moderna versionen av neurala nätverk. Neurala nätverk skulle dock inte bli ekonomiskt framgångsrika förrän på 1990-talet, då de började användas för att driva optiska teckenigenkänningsprogram och talmönsterigenkänningsprogram.

expertsystem
expertsystem representerar ett tillvägagångssätt inom artificiell intelligensforskning som blev populär under 1970-talet. ett expertsystem använder kunskap från experter för att skapa ett program. Expertsystem kan svara på frågor och lösa problem inom en tydligt definierad kunskapsarena och använder ”regler” för logik. Deras förenklade design gjorde det ganska enkelt för program att utformas, byggas och modifieras. Banklån screening program ger ett bra exempel på ett expertsystem från början av 1980-talet, men det fanns också medicinska och försäljningsapplikationer med hjälp av expertsystem. Generellt sett blev dessa enkla program ganska användbara och började spara företag stora summor pengar.till exempel började Digital Equipment Corporation 1980 kräva att deras säljteam använder ett expertsystem som heter XCON när de lägger kundorder. DEC sålde ett brett utbud av datorkomponenter, men säljkåren var inte särskilt kunnig om vad de sålde. Vissa beställningar kombinerade komponenter som inte fungerade tillsammans och vissa beställningar saknade nödvändiga komponenter. Innan XCON skulle tekniska rådgivare undersöka orderna, identifiera icke-funktionella kombinationer och ge instruktioner för montering av systemet. Eftersom denna process (inklusive kommunikation med kunden) orsakade en flaskhals vid DEC, och många ansträngningar för att automatisera den hade misslyckats, var DEC villig att prova en teknik som var relativt ny för denna typ av situation. År 1986 sparade systemet 40 miljoner DEC årligen.

XCON (ibland kallad R1) var ett stort system med ungefär 750 regler, och även om det kunde behandla flera order, behövde det fortfarande justeras och tweaked innan DEC kunde använda det effektivt. DEC lärde sig att systemet inte kunde användas som ursprungligen utformat, och att de inte hade expertis för att behålla det. ”Kunskapen” i systemet behövde samlas in och läggas till av personer utbildade i expertsystem och i kunskapsinhämtning. Många av dess tekniska rådgivare var ingenjörer, men de var inte AI-experter, och teamet av ingenjörer DEC organiserade slutligen var ”bekanta” med AI, men medlemmar i gruppen valdes inte för sin expertis inom artificiell intelligens (det fanns helt enkelt inte så många experter tillgängliga), och ingen i gruppen var bekant med språket det skrevs på, OPS-4. Efter ungefär ett år, med en enorm mängd hjälp från Carnegie-Mellon (programmets ursprungliga författare), och efter att ha vuxit till nästan 1000 regler, kunde DEC ta över programmeringen och underhållet av XCON. Att integrera XCON i DEC-kulturen var en svår, men framgångsrik upplevelse. Ledningen lärde sig ett expertsystem kräver specialutbildad personal, och de tog ansvar för att utbilda och anställa människor för att möta dessa behov.

på sin topp har XCON 2500 regler och hade utvecklats avsevärt (men för närvarande har dess popularitet minskat, eftersom det har blivit lite av en dinosaurie). XCON var det första datorsystemet som använde AI-tekniker för att lösa verkliga problem i en industriell miljö. År 1985 hade företag över hela världen börjat använda expertsystem och ett nytt karriärfält utvecklats för att stödja dem. XCON kunde konfigurera försäljningsorder för alla VAX-11 datorsystem tillverkade i USA, men systemet behövde kontinuerligt justeras och uppdateras och krävde ett heltids IT-team.

den andra AI-vintern

AI-fältet upplevde en annan stor vinter från 1987 till 1993. Denna andra avmattning i AI-forskning sammanföll med XCON och andra tidiga expertsystem datorer, ses som långsam och klumpig. Stationära datorer blev mycket populära och förskjuter de äldre, skrymmande, mycket mindre användarvänliga datorbankerna. Så småningom blev expertsystem helt enkelt för dyra att underhålla, jämfört med stationära datorer. De var svåra att uppdatera, och kunde inte ”lära sig.”Det var problem stationära datorer inte har. Vid ungefär samma tid drog DARPA (Defense Advanced Research Projects Agency) slutsatsen att AI inte skulle vara ”nästa våg” och omdirigerade sina medel till projekt som anses vara mer benägna att ge snabba resultat. Som en följd av detta minskade finansieringen för AI-forskning i slutet av 1980-talet djupt och skapade den andra AI-vintern.

konversation med datorer blir verklighet

i början av 1990-talet flyttade artificiell intelligensforskning sitt fokus till något som kallas en intelligent agent. Dessa intelligenta agenter kan användas för nyhetshämtningstjänster, online shopping och surfa på webben. Intelligenta agenter kallas också ibland agenter eller bots. Med hjälp av Big Data-program har de gradvis utvecklats till personliga digitala assistenter eller virtuella assistenter.

för närvarande forskar gigantiska teknikföretag som Google, Facebook, IBM och Microsoft på ett antal projekt för artificiell intelligens, inklusive virtuella assistenter. De tävlar alla om att skapa assistenter som Facebook: s M, eller Cortana från Microsoft eller Apples Siri.Målet med artificiell intelligens är inte längre att skapa en intelligent maskin som kan imitera mänsklig konversation med en teletyp. Användningen av Big Data har gjort det möjligt för AI att ta nästa evolutionära steg. Nu är målen att utveckla program som kan tala på ett naturligt språk, som engelska, och att fungera som din virtuella assistent. Dessa virtuella assistenter representerar framtiden för AI-forskning och kan ha formen av robotar för fysisk hjälp, eller kan vara inrymda i bärbara datorer och hjälpa till att fatta affärsbeslut, eller de kan integreras i ett företags kundserviceprogram och svara på telefonen. Artificiell intelligens utvecklas fortfarande och hittar nya användningsområden.

Lämna ett svar

Din e-postadress kommer inte publiceras.