Dataemner

kf_histai_040316 rødderne til moderne kunstig intelligens, eller AI, kan spores tilbage til Grækenlands klassiske filosoffer og deres bestræbelser på at modellere menneskelig tænkning som et system af symboler. For nylig, i 1940 ‘ erne, blev en tankegang kaldet “Connectionism” udviklet til at studere tankeprocessen. I 1950 skrev en mand ved navn Alan Turing et papir, der antydede, hvordan man testede en “tænkende” maskine. Han troede, at hvis en maskine kunne føre en samtale ved hjælp af en teleprinter, efterligne et menneske uden mærkbare forskelle, kunne maskinen beskrives som tænkning. Hans papir blev fulgt i 1952 af Hodgkin-modellen af hjernen som neuroner, der danner et elektrisk netværk, hvor individuelle neuroner skyder i alt-eller-intet (on/off) pulser. Disse begivenheder på en konference sponsoreret af Dartmouth College i 1956 hjalp med at udløse begrebet kunstig intelligens.Jonathan Crane er CCO for Ipsoft, skaberne af den virtuelle assistent kaldet Amelia. Han havde dette at sige om den aktuelle tilstand af kunstig intelligens:

“AI driver en enorm ændring i den måde, vi kan målrette vores markedsføring og reklame på, selv for mindre virksomheder. Det betyder, at virksomheder er i stand til at målrette deres ‘bruge og øge ROI’ og tillade reklame at gøre, hvad det skal, hvilket giver folk annoncer, de ønsker at se.”Mr. Crane henviser til AIS brug af Big Data. Kunstig intelligens kan kombineres med Big Data til at håndtere komplekse opgaver og kan behandle informationen med meget hurtigere hastigheder end nogen tidligere systemer.

udviklingen af AI er ikke blevet strømlinet og effektiv. Begyndende som et spændende, fantasifuldt koncept i 1956 blev kunstig Intelligensforskningsfinansiering skåret ned i 1970 ‘ erne, efter at flere rapporter kritiserede manglende fremskridt. Bestræbelserne på at efterligne den menneskelige hjerne, kaldet “neurale netværk”, blev eksperimenteret med og droppet. De mest imponerende, funktionelle programmer var kun i stand til at håndtere forenklede problemer og blev beskrevet som legetøj af de uimponerede. AI-forskere havde været alt for optimistiske med at etablere deres mål og havde gjort naive antagelser om de problemer, de ville støde på. Da de resultater, de lovede, aldrig blev realiseret, skulle det ikke komme som nogen overraskelse, at deres finansiering blev skåret ned.

den første AI-vinter
AI-forskere måtte beskæftige sig med to meget grundlæggende begrænsninger, ikke nok hukommelse og behandlingshastigheder, der synes afgrundsdyb efter nutidens standarder. Ligesom gravity research på det tidspunkt havde kunstig intelligensforskning sin offentlige finansiering skåret ned, og interessen faldt af. I modsætning til tyngdekraften genoptog AI-forskningen i 1980 ‘ erne, hvor USA og Storbritannien yder finansiering til at konkurrere med Japans nye “femte generation” computerprojekt og deres mål om at blive verdens førende inden for computerteknologi. Tiden mellem 1974 og 1980 er blevet kendt som ‘den første AI-vinter.’

den første AI-vinter sluttede med introduktionen af “ekspertsystemer”, som blev udviklet og hurtigt vedtaget af konkurrencedygtige virksomheder over hele verden. Det primære fokus for AI-forskning var nu på temaet at akkumulere viden fra forskellige eksperter. AI nød også fordel af genoplivningen af Forbindelsesisme i 1980 ‘ erne.

cybernetik og neurale netværk
cybernetik studerer automatiske kontrolsystemer. To eksempler er hjernen og nervesystemet og de kommunikationssystemer, der bruges af computere. Cybernetik er blevet brugt til at træne den moderne version af neurale netværk. Imidlertid ville neurale netværk ikke blive økonomisk succesrige før i 1990 ‘ erne, da de begyndte at blive brugt til at betjene optiske tegngenkendelsesprogrammer og talemønstergenkendelsesprogrammer.

ekspertsystemer
ekspertsystemer repræsenterer en tilgang inden for kunstig intelligensforskning, der blev populær gennem 1970 ‘ erne. et ekspertsystem bruger viden fra eksperter til at oprette et program. Ekspertsystemer kan besvare spørgsmål og løse problemer inden for en klart defineret arena for viden og bruger “regler” for logik. Deres forenklede design gjorde det rimeligt nemt for programmer at blive designet, bygget og ændret. Banklånsscreeningsprogrammer giver et godt eksempel på et ekspertsystem fra begyndelsen af 1980 ‘ erne, men der var også medicinske og salgsapplikationer ved hjælp af ekspertsystemer. Generelt blev disse enkle programmer ganske nyttige og begyndte at spare virksomheder store mængder penge.for eksempel begyndte Digital udstyr Corporation i 1980 at kræve, at deres salgsteam bruger et ekspertsystem, der hedder , når de afgiver kundeordrer. DEC solgte en bred vifte af computerkomponenter, men salgsstyrken var ikke særlig vidende om, hvad de solgte. Nogle ordrer kombinerede komponenter, der ikke fungerede sammen, og nogle ordrer manglede nødvendige komponenter. Tekniske rådgivere screener ordrerne, identificerer ikke-funktionelle kombinationer og giver instruktioner til montering af systemet. Da denne proces (inklusive kommunikation med kunden) forårsagede en flaskehals i DEC, og mange bestræbelser på at automatisere den var mislykkedes, var DEC villig til at prøve en teknologi, der var relativt ny i denne slags situation. I 1986 sparede systemet DEC $40 millioner årligt.R1) var et stort system med omkring 750 regler, og selvom det kunne behandle flere ordrer, skulle det stadig justeres og finjusteres, før DEC kunne bruge det effektivt. DEC lærte, at systemet ikke kunne bruges som oprindeligt designet, og at de ikke havde ekspertisen til at vedligeholde det. “Viden” i systemet skulle indsamles og tilføjes af personer, der er uddannet i ekspertsystemer og i videnindsamling. Mange af dets tekniske rådgivere var ingeniører, men de var ikke AI-eksperter, og teamet af ingeniører DEC endelig organiseret var “bekendt” med AI, men medlemmer af gruppen blev ikke valgt for deres ekspertise inden for kunstig intelligens (der var simpelthen ikke så mange eksperter tilgængelige), og ingen i gruppen var bekendt med det sprog, det blev skrevet på, OPS-4. Efter ca.et år med en enorm hjælp fra Carnegie-Mellon (programmets originale forfattere), og efter at have vokset til næsten 1000 regler, var DEC i stand til at overtage programmeringen og vedligeholdelsen af programmet. Det var en vanskelig, men vellykket oplevelse at integrere KSC i DEC-kulturen. Ledelsen lærte et ekspertsystem kræver specielt uddannet personale, og de tog ansvaret for at træne og ansætte folk til at imødekomme disse behov.

på sit højeste har HCON 2.500 regler og havde udviklet sig markant (selvom dens popularitet i øjeblikket er aftaget, da den er blevet lidt af en dinosaur). Det var det første computersystem, der brugte AI-teknikker til at løse problemer i den virkelige verden inden for en industriel ramme. I 1985 var virksomheder over hele verden begyndt at bruge ekspertsystemer, og et nyt karrierefelt udviklede sig til at støtte dem. Det var muligt at konfigurere salgsordrer for alle computersystemer, der blev fremstillet i USA, men systemet skulle løbende justeres og opdateres, og det krævede et fuldtids IT-team.

den anden AI-vinter

AI-feltet oplevede en anden stor vinter fra 1987 til 1993. Denne anden afmatning i AI-forskning faldt sammen med FSC og andre tidlige Ekspertsystemcomputere, der blev betragtet som langsomme og klodsede. Stationære computere blev meget populære og fortrængte de ældre, større, meget mindre brugervenlige computerbanker. Til sidst blev ekspertsystemer simpelthen for dyre at vedligeholde sammenlignet med desktops. De var vanskelige at opdatere, og kunne ikke “lære.”Disse var problemer stationære computere havde ikke. På omtrent samme tid konkluderede DARPA (Defense Advanced Research Projects Agency), at AI ikke ville være “den næste bølge” og omdirigerede sine midler til projekter, der anses for mere tilbøjelige til at give hurtige resultater. Som en konsekvens blev finansieringen til AI-forskning i slutningen af 1980 ‘ erne skåret dybt, hvilket skabte den anden AI-vinter.

samtale med computere bliver en realitet

i begyndelsen af 1990 ‘ erne skiftede kunstig intelligensforskning sit fokus til noget, der hedder en intelligent agent. Disse intelligente agenter kan bruges til nyheder hentning tjenester, online shopping, og surfe på nettet. Intelligente agenter kaldes også undertiden agenter eller bots. Med brugen af Big Data-programmer har de gradvist udviklet sig til personlige digitale assistenter eller virtuelle assistenter.

i øjeblikket undersøger gigantiske tech-virksomheder som Google, Facebook, IBM og Microsoft en række kunstige Intelligensprojekter, herunder virtuelle assistenter. De konkurrerer alle om at oprette assistenter som Facebook ‘ s M eller Cortana fra Microsoft eller Apples Siri.Målet med kunstig intelligens er ikke længere at skabe en intelligent maskine, der er i stand til at efterligne menneskelig samtale med en teletype. Brugen af Big Data har gjort det muligt for AI at tage det næste evolutionære skridt. Nu er målene at udvikle programmer, der er i stand til at tale på et naturligt sprog, som engelsk, og at fungere som din virtuelle assistent. Disse virtuelle assistenter repræsenterer fremtiden for AI-forskning og kan tage form af robotter til fysisk hjælp eller kan være anbragt i bærbare computere og hjælpe med at træffe forretningsbeslutninger, eller de kan integreres i en virksomheds kundeserviceprogram og besvare telefonen. Kunstig intelligens udvikler sig stadig og finder nye anvendelser.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.