Tietoaiheet

kf_histai_040316 nykyaikaisen tekoälyn eli tekoälyn juuret voidaan jäljittää Kreikan klassisiin filosofeihin ja heidän pyrkimyksiinsä mallintaa ihmisen ajattelua symbolijärjestelmänä. Myöhemmin, 1940-luvulla, ajattelun prosessia tutkimaan kehitettiin ”Konnektionismi” – niminen koulukunta. Vuonna 1950 Alan Turing-niminen mies kirjoitti tutkielman, jossa hän ehdotti ”ajattelukoneen” testaamista. Hän uskoi, että jos kone pystyi jatkamaan keskustelua teleprinterin avulla matkien ihmistä ilman havaittavia eroja, konetta voitiin kuvata ajatteluksi. Hänen tutkielmaansa seurasi vuonna 1952 Hodgkin-Huxley-malli, jossa aivot muodostavat sähköverkon, jossa yksittäiset neuronit ampuvat kaikki tai ei mitään (on/off)-pulsseissa. Nämä tapahtumat Dartmouth Collegen sponsoroimassa konferenssissa vuonna 1956 auttoivat sytyttämään tekoälyn käsitteen.

Jonathan Crane on Ipsoftin CCO, Amelia-nimisen virtuaaliavustajan luojat. Tekoälyn nykytilasta hän kertoi seuraavaa:

”tekoäly ajaa valtavaa muutosta siihen, miten voimme kohdentaa markkinointiamme ja mainontaamme myös pienemmille yrityksille. Tämä tarkoittaa sitä, että yritykset voivat kohdentaa ”kulutuksensa ja lisätä sijoitetun pääoman tuottoa” ja sallia mainonnan tehdä, mitä sen pitäisi, antamalla ihmisille mainoksia, joita he haluavat nähdä.”

Mr. Crane viittaa tekoälyn Big datan käyttöön. Tekoäly voidaan yhdistää Big dataan monimutkaisten tehtävien hoitamiseksi, ja se voi käsitellä tietoa paljon nopeammin kuin mikään aiempi järjestelmä.

tekoälyn kehitys ei ole ollut virtaviivaista ja tehokasta. Vuodesta 1956 alkaen jännittävänä ja mielikuvituksellisena käsitteenä tekoälyn tutkimusrahoitusta leikattiin 1970-luvulla useiden raporttien kritisoitua kehityksen puutetta. Ihmisaivoja, joita kutsuttiin ”hermoverkoiksi”, kokeiltiin ja niistä luovuttiin. Vaikuttavimmat, toiminnalliset ohjelmat kykenivät käsittelemään vain yksinkertaistavia ongelmia, ja vaikuttamattomat kuvailivat niitä leluiksi. Tekoälytutkijat olivat olleet liian optimistisia asettaessaan tavoitteitaan ja tehneet naiiveja olettamuksia kohtaamistaan ongelmista. Kun heidän lupaamansa tulokset eivät koskaan toteutuneet, ei pitäisi tulla yllätyksenä, että heidän rahoitustaan leikattiin.

ensimmäisen TEKOÄLYTALVEN
tekoälytutkijat joutuivat käsittelemään kahta hyvin perustavanlaatuista rajoitusta, muistin riittämättömyyttä ja käsittelynopeutta, jotka tuntuisivat nykynormien mukaan pohjattomilta. Aivan kuten painovoimatutkimus tuolloin, Tekoälytutkimus leikkasi valtion rahoitusta, ja kiinnostus putosi. Kuitenkin, toisin kuin painovoima, tekoälyn tutkimus käynnistyi uudelleen 1980-luvulla, kun Yhdysvallat ja Britannia tarjosivat rahoitusta kilpailemaan Japanin uuden ”viidennen sukupolven” tietokonehankkeen kanssa, ja tavoitteekseen tulla maailman johtavaksi tietokoneteknologian alalla. Vuosien 1974 ja 1980 välistä ajanjaksoa on alettu kutsua ” ensimmäiseksi TEKOÄLYTALVEKSI.”

ensimmäinen TEKOÄLYTALVI päättyi ”Asiantuntijajärjestelmien” käyttöönottoon, joita kilpailukykyiset yritykset ympäri maailmaa kehittivät ja omaksuivat nopeasti. Tekoälytutkimuksen pääpaino oli nyt tiedon keräämisessä eri asiantuntijoilta. Tekoäly hyötyi myös Konnektionismin elpymisestä 1980-luvulla.

kybernetiikka ja neuroverkot
kybernetiikka tutkii automaattisia ohjausjärjestelmiä. Kaksi esimerkkiä ovat aivot ja hermosto sekä tietokoneiden käyttämät viestintäjärjestelmät. Kybernetiikan avulla on koulutettu neuroverkkojen nykyaikaista versiota. Neuroverkot menestyivät taloudellisesti kuitenkin vasta 1990-luvulla, jolloin niitä alettiin käyttää optisten hahmontunnistusohjelmien ja puhekuviotunnistusohjelmien käyttöön.

Expert Systems
Expert Systems edustaa Tekoälytutkimuksessa koko 1970-luvun ajan yleistynyttä lähestymistapaa, jossa asiantuntijajärjestelmä käyttää asiantuntijoiden tietoja ohjelman luomiseen. Asiantuntijajärjestelmät voivat vastata kysymyksiin ja ratkaista ongelmia selkeästi määritellyllä tiedon areenalla ja käyttää logiikan ”sääntöjä”. Niiden yksinkertainen muotoilu teki ohjelmien suunnittelusta, rakentamisesta ja muokkaamisesta kohtuullisen helppoa. Pankkilainojen seulontaohjelmat ovat hyvä esimerkki 1980-luvun alun Asiantuntijajärjestelmästä, mutta myös Asiantuntijajärjestelmiä hyödyntäviä lääke-ja myyntisovelluksia oli olemassa. Yleisesti ottaen, nämä yksinkertaiset ohjelmat tuli varsin hyödyllinen, ja alkoi säästää yrityksille suuria määriä rahaa.

esimerkiksi vuonna 1980 Digital Equipment Corporation alkoi vaatia myyntitiimiään käyttämään Xcon-nimistä Asiantuntijajärjestelmää tehdessään asiakastilauksia. DEC myi laajan valikoiman tietokonekomponentteja, mutta myyntiväki ei ollut erityisen perillä siitä, mitä he myivät. Joissakin tilauksissa yhdistettiin komponentteja, jotka eivät toimineet yhdessä ja joistakin tilauksista puuttui tarvittavia komponentteja. Ennen XCONIA tekniset neuvonantajat seuloivat tilaukset, tunnistivat toimimattomat yhdistelmät ja antoivat ohjeet järjestelmän kokoamiseksi. Koska tämä prosessi (mukaan lukien yhteydenpito asiakkaaseen) aiheutti DEC: ssä pullonkaulan ja monet yritykset automatisoida sitä olivat epäonnistuneet, DEC oli halukas kokeilemaan teknologiaa, joka oli suhteellisen uusi tällaisessa tilanteessa. Vuoteen 1986 mennessä järjestelmä oli säästänyt 40 miljoonaa dollaria vuodessa.

XCON (joskus R1) oli suuri järjestelmä, jossa oli noin 750 sääntöä, ja vaikka se pystyi käsittelemään useita tilauksia, sitä piti silti säätää ja virittää ennen kuin DEC pystyi käyttämään sitä tehokkaasti. DEC sai tietää, että järjestelmää ei voitu käyttää alkuperäisen suunnitelman mukaisesti ja että heillä ei ollut asiantuntemusta ylläpitää sitä. Järjestelmän ”tieto” oli kerättävä ja lisättävä Asiantuntijajärjestelmiin ja tiedonhankintaan koulutettujen ihmisten toimesta. Monet sen teknisistä neuvonantajista olivat insinöörejä, mutta he eivät olleet tekoälyn asiantuntijoita, ja lopulta perustettu insinööriryhmä oli ”perehtynyt” tekoälyyn, mutta ryhmän jäseniä ei valittu Tekoälyosaamisen vuoksi (asiantuntijoita ei yksinkertaisesti ollut kovin paljon), eikä kukaan ryhmästä tuntenut kieltä, jolla se oli kirjoitettu, OPS-4: ää. Noin vuoden kuluttua, Carnegie-Mellonin (ohjelman alkuperäiset kirjoittajat) valtavalla avustuksella ja kasvettuaan lähes 1000 sääntöön, DEC pystyi ottamaan vastuulleen xconin ohjelmoinnin ja ylläpidon. XCONIN liittäminen osaksi DEC-kulttuuria oli vaikea, mutta onnistunut kokemus. Johtaminen oppinut asiantuntija järjestelmä vaatii erityiskoulutettua henkilöstöä, ja he ottivat vastuun koulutusta ja palkata ihmisiä vastaamaan näihin tarpeisiin.

suurimmillaan XCONISSA on 2 500 sääntöä ja se oli kehittynyt merkittävästi (joskin nykyisin sen suosio on hiipunut, sillä siitä on tullut hieman dinosaurus). XCON oli ensimmäinen tietokonejärjestelmä, joka käytti tekoälyn tekniikoita reaalimaailman ongelmien ratkaisemiseen teollisessa ympäristössä. Vuoteen 1985 mennessä yritykset kaikkialla maailmassa olivat alkaneet käyttää Asiantuntijajärjestelmiä, ja niiden tueksi kehittyi uusi urakenttä. XCON pystyi määrittämään myyntitilaukset kaikille Yhdysvalloissa valmistetuille VAX-11-tietokonejärjestelmille, mutta järjestelmää piti jatkuvasti säätää ja päivittää, ja se vaati kokopäiväisen IT-tiimin.

toinen AI-talvi

tekoälyn kenttä koki toisen suuren talven 1987-1993. Tekoälytutkimuksen toinen hidastuminen tapahtui samaan aikaan, kun XCON ja muut varhaiset Asiantuntijajärjestelmätietokoneet nähtiin hitaina ja kömpelöinä. Pöytätietokoneista oli tulossa hyvin suosittuja ja ne syrjäyttivät vanhemmat, Kookkaammat, paljon vähemmän käyttäjäystävälliset tietokonepankit. Lopulta Asiantuntijajärjestelmistä tuli yksinkertaisesti liian kalliita ylläpitää verrattuna pöytätietokoneisiin. Niitä oli vaikea päivittää,eikä voinut ” oppia.”Nämä olivat ongelmia pöytätietokoneissa ei ollut. Samoihin aikoihin DARPA (Defense Advanced Research Projects Agency) totesi, ettei tekoäly olisi ”seuraava aalto” ja suuntasi varojaan projekteihin, joiden katsotaan tuottavan nopeita tuloksia todennäköisemmin. Tämän seurauksena tekoälytutkimuksen rahoitusta leikattiin 1980-luvun lopulla pahasti, mikä synnytti toisen TEKOÄLYTALVEN.

Keskustelu tietokoneiden kanssa toteutuu

1990-luvun alussa Tekoälytutkimus siirsi painopisteensä johonkin niin sanottuun älykkääseen tekijään. Näitä älykkäitä agentteja voidaan käyttää uutishakupalveluihin, verkko-ostoksiin ja verkon selaamiseen. Älykkäitä agentteja kutsutaan joskus myös agenteiksi tai botteiksi. Big Data-ohjelmien käytön myötä ne ovat vähitellen kehittyneet henkilökohtaisiksi digitaalisiksi avustajiksi eli virtuaaliavustajiksi.

tällä hetkellä jättimäiset teknologiayritykset kuten Google, Facebook, IBM ja Microsoft tutkivat useita Tekoälyprojekteja, kuten virtuaaliavustajia. Ne kaikki kilpailevat avustajien luomisesta, kuten Facebook m: n tai Microsoftin Cortanan tai Applen Sirin.Tekoälyn tavoitteena ei ole enää luoda älykästä konetta, joka pystyy jäljittelemään ihmisten keskustelua kaukokirjoituksella. Big Datan käyttö on antanut tekoälylle mahdollisuuden ottaa seuraava kehitysaskel. Nyt tavoitteena on kehittää ohjelmia, jotka pystyvät puhumaan luonnollisella kielellä, kuten Englanti, ja toimia virtuaaliassistenttina. Nämä virtuaaliavustajat edustavat tekoälytutkimuksen tulevaisuutta, ja ne voivat olla robottien muodossa fyysistä apua varten, tai ne voidaan sijoittaa kannettaviin tietokoneisiin ja auttaa tekemään liiketoimintapäätöksiä, tai ne voidaan integroida yrityksen asiakaspalveluohjelmaan ja vastata puhelimeen. Tekoäly kehittyy edelleen ja löytää uusia käyttötarkoituksia.

Vastaa

Sähköpostiosoitettasi ei julkaista.