the roots of modern Artificial Intelligence, of AI, kan worden teruggevoerd op de klassieke filosofen van Griekenland, en hun inspanningen om het menselijk denken te modelleren als een systeem van symbolen. Meer recent, in de jaren 1940, werd een school van denken genaamd “Connectionisme” ontwikkeld om het proces van denken te bestuderen. In 1950 schreef een man genaamd Alan Turing een paper waarin hij voorstelde hoe een “denkmachine” te testen. Hij geloofde dat als een machine een gesprek kon voeren door middel van een teleprinter, het imiteren van een mens zonder merkbare verschillen, de machine kon worden omschreven als denken. Zijn artikel werd in 1952 gevolgd door het Hodgkin-Huxley-model van de hersenen als neuronen die een elektrisch netwerk vormen, waarbij individuele neuronen in alle-of-niets (aan/uit) pulsen vuren. Deze gebeurtenissen, op een conferentie gesponsord door Dartmouth College in 1956, geholpen om het concept van kunstmatige intelligentie vonk.
Jonathan Crane is de CCO van Ipsoft, de makers van de virtuele assistent genaamd Amelia. Hij had het volgende te zeggen over de huidige stand van de kunstmatige intelligentie:
“AI zorgt voor een enorme verandering in de manier waarop we onze marketing en reclame kunnen richten, zelfs voor kleinere bedrijven. Dit betekent dat bedrijven in staat zijn om hun ‘besteden en verhogen ROI’ te richten en reclame te laten doen wat het moet doen, waardoor mensen advertenties die ze willen zien.”
Mr. Crane verwijst naar AI ‘ s gebruik van Big Data. Kunstmatige intelligentie kan worden gecombineerd met Big Data om complexe taken uit te voeren en kan de informatie veel sneller verwerken dan eerdere systemen.
de ontwikkeling van AI is niet gestroomlijnd en efficiënt. Beginnend als een spannend, fantasierijk concept in 1956, kunstmatige intelligentie onderzoek financiering werd gesneden in de jaren 1970, na verschillende rapporten bekritiseerd een gebrek aan vooruitgang. Pogingen om het menselijk brein te imiteren, zogenaamde “neurale netwerken”, werden geëxperimenteerd met, en gedaald. De meest indrukwekkende, functionele programma ‘ s waren alleen in staat om simplistische problemen aan te pakken, en werden beschreven als speelgoed door de niet onder de indruk. AI-onderzoekers waren te optimistisch geweest bij het vaststellen van hun doelen, en hadden naïeve veronderstellingen gemaakt over de problemen die ze zouden tegenkomen. Toen de beloofde resultaten nooit werkelijkheid werden, zou het geen verrassing moeten zijn dat hun financiering werd gekort.
De eerste AI Winter
AI-onderzoekers hadden te maken met twee zeer fundamentele beperkingen, te weinig geheugen en verwerkingssnelheden die naar de huidige standaards erbarmelijk zouden lijken. Net als zwaartekracht onderzoek op het moment, kunstmatige intelligentie onderzoek had zijn overheidsfinanciering gesneden, en de rente gedaald. Echter, in tegenstelling tot zwaartekracht, AI onderzoek hervat in de jaren 1980, met de VS en Groot-Brittannië het verstrekken van financiering om te concurreren met Japan ‘ s nieuwe “vijfde generatie” computer project, en hun doel om de wereldleider in computertechnologie te worden. De tijd tussen 1974 en 1980 is bekend geworden als ‘ de eerste AI Winter.”
De eerste AI-Winter eindigde met de introductie van “Expert Systems”, die werden ontwikkeld en snel werden overgenomen door concurrerende bedrijven over de hele wereld. De primaire focus van AI onderzoek lag nu op het thema van het verzamelen van kennis van verschillende experts. AI profiteerde ook van de heropleving van Connectionisme in de jaren tachtig.
cybernetica en neurale netwerken Twee voorbeelden zijn de hersenen en het zenuwstelsel, en de communicatiesystemen die door computers worden gebruikt. Cybernetica is gebruikt om de moderne versie van neurale netwerken te trainen. Neurale netwerken zouden echter niet financieel succesvol worden tot de jaren 1990, toen ze werden gebruikt om optische tekenherkenningsprogramma ’s en spraakpatroonherkenningsprogramma’ s te bedienen.Expert-systemen zijn een benadering in artificiële intelligentie die populair werd in de jaren zeventig. een Expert-systeem maakt gebruik van de kennis van experts om een programma op te zetten. Expert systemen kunnen vragen beantwoorden en problemen oplossen binnen een duidelijk gedefinieerde arena van kennis, en maakt gebruik van “regels” van logica. Hun simplistische ontwerp maakte het redelijk gemakkelijk voor programma ‘ s worden ontworpen, gebouwd, en aangepast. Banklening screening programma ‘ s zijn een goed voorbeeld van een Expert systeem uit de vroege jaren 1980, maar er waren ook medische en sales Applicaties met behulp van Expert systemen. In het algemeen, deze eenvoudige programma ‘ s werden heel nuttig, en begon het opslaan van bedrijven grote hoeveelheden geld.in 1980 begon Digital Equipment Corporation bijvoorbeeld te eisen dat hun verkoopteam een expertsysteem met de naam XCON gebruikt bij het plaatsen van klantenorders. DEC verkocht een breed scala van computercomponenten, maar de sales force was niet bijzonder goed op de hoogte over wat ze verkochten. Sommige bestellingen combineerden componenten die niet samen werkten en sommige bestellingen ontbraken benodigde componenten. Voorafgaand aan XCON zouden technische adviseurs de orders screenen, niet-functionele combinaties identificeren en instructies geven voor het samenstellen van het systeem. Aangezien dit proces (inclusief communicatie met de klant) een knelpunt veroorzaakte bij DEC, en veel inspanningen om het te automatiseren waren mislukt, was DEC bereid om een technologie te proberen die relatief nieuw was in deze soort situatie. In 1986 bespaarde het systeem $40 miljoen per jaar.
XCON (soms aangeduid als R1) was een groot systeem met ongeveer 750 regels, en hoewel het meerdere orders kon verwerken, moest het nog worden aangepast en getweaked voordat DEC het efficiënt kon gebruiken. DEC leerde dat het systeem niet kon worden gebruikt zoals oorspronkelijk was ontworpen, en dat ze niet de expertise hadden om het te onderhouden. De” kennis ” in het systeem moest worden verzameld en toegevoegd door mensen die zijn opgeleid in deskundige systemen en in kennisverwerving. Veel van de technische adviseurs waren ingenieurs, maar ze waren niet AI-experts, en het team van ingenieurs DEC eindelijk georganiseerd waren “vertrouwd” met AI, maar de leden van de groep werden niet gekozen voor hun expertise op het gebied van kunstmatige intelligentie (er waren gewoon niet zoveel deskundigen beschikbaar), en niemand in de groep was bekend met de taal waarin het was geschreven, OPS-4. Na ongeveer een jaar, met een enorme hoeveelheid hulp van Carnegie-Mellon (de oorspronkelijke schrijvers van het programma), en met bijna 1000 regels, was DEC in staat om de programmering en het onderhoud van XCON over te nemen. Het integreren van XCON in de DEC-cultuur was een moeilijke, maar succesvolle ervaring. Management leerde een Expert systeem vereist speciaal opgeleid personeel, en ze namen de verantwoordelijkheid voor de opleiding en het inhuren van mensen om aan die behoeften te voldoen.
op zijn hoogtepunt heeft XCON 2.500 regels en was het aanzienlijk geëvolueerd (hoewel de populariteit Op dit moment is afgenomen, omdat het een beetje een dinosaurus is geworden). XCON was het eerste computersysteem dat AI-technieken gebruikte om echte problemen op te lossen binnen een industriële omgeving. Tegen 1985 waren bedrijven over de hele wereld begonnen met het gebruik van Expert systemen, en een nieuw carrièreveld ontwikkeld om hen te ondersteunen. XCON kon verkooporders configureren voor alle Vax-11 computersystemen die in de Verenigde Staten zijn vervaardigd, maar het systeem moest continu worden aangepast en bijgewerkt, en vereist een fulltime IT-team.
De tweede AI-Winter
het AI-veld kende een andere grote winter van 1987 tot 1993. Deze tweede vertraging in AI-onderzoek viel samen met XCON, en andere vroege Expert Systeemcomputers, gezien als traag en onhandig. Desktop computers werden steeds zeer populair en het verplaatsen van de oudere, omvangrijker, veel minder gebruiksvriendelijke computer banken. Uiteindelijk, Expert systemen gewoon werd te duur om te onderhouden, in vergelijking met desktops. Ze waren moeilijk te updaten, en kon niet “leren.”Dit waren problemen desktop computers niet hebben. Op ongeveer hetzelfde moment, DARPA (Defense Advanced Research Projects Agency) concludeerde AI zou niet zijn “de volgende golf” en omgeleid haar middelen naar projecten geacht meer kans om snelle resultaten te bieden. Als gevolg daarvan, in de late jaren 1980, de financiering voor AI-onderzoek werd diep gesneden, het creëren van de tweede AI Winter.
conversatie met Computers wordt een realiteit
begin jaren negentig verplaatste Artificial Intelligence research zijn focus naar iets dat een intelligente agent wordt genoemd. Deze intelligente agenten kunnen worden gebruikt voor nieuws ophalen diensten, online winkelen, en surfen op het web. Intelligente agenten worden ook wel agenten of bots genoemd. Met het gebruik van Big Data-programma ‘ s zijn ze geleidelijk uitgegroeid tot persoonlijke digitale assistenten, of virtuele assistenten.op dit moment onderzoeken grote tech-bedrijven zoals Google, Facebook, IBM en Microsoft een aantal kunstmatige-Intelligentieprojecten, waaronder virtuele assistenten. Ze concurreren allemaal om assistenten te maken, zoals Facebook ‘S M, of Cortana van Microsoft, of Apple’ s Siri.Het doel van kunstmatige intelligentie is niet langer om een intelligente machine te creëren die in staat is om menselijke gesprekken met een teletype te imiteren. Het gebruik van Big Data heeft AI in staat gesteld om de volgende evolutionaire stap te zetten. Nu, de doelen zijn om softwareprogramma ‘ s te ontwikkelen die in staat zijn om te spreken in een natuurlijke taal, zoals Engels, en om op te treden als uw virtuele assistent. Deze virtuele assistenten vertegenwoordigen de toekomst van AI onderzoek, en kan de vorm van robots voor fysieke hulp, of kunnen worden gehuisvest in laptops en helpen bij het nemen van zakelijke beslissingen, of ze kunnen worden geïntegreerd in een bedrijf customer service programma en de telefoon te beantwoorden. Kunstmatige intelligentie is nog steeds in ontwikkeling en het vinden van nieuwe toepassingen.