Wat kunstmatige intelligentie tegenwoordig echt kan doen
Wat kunstmatige intelligentie tegenwoordig echt kan doen
Anonim

Spoiler alert: het duurt nog lang voordat de machines in opstand komen.

Wat kunstmatige intelligentie tegenwoordig echt kan doen
Wat kunstmatige intelligentie tegenwoordig echt kan doen

Als Elon Musk de humanoïde robot Tesla Bot introduceert, lijkt er een nieuwe wetenschappelijke revolutie voor de deur te staan. Een beetje meer - en kunstmatige intelligentie (AI) zal de mens overtreffen, en machines zullen ons op het werk vervangen. Professoren Gary Marcus en Ernest Davis, beide gerenommeerde AI-experts, wordt echter gevraagd niet overhaast tot dergelijke conclusies te komen.

In Artificial Intelligence Reboot leggen onderzoekers uit waarom moderne technologie verre van ideaal is. Met toestemming van de uitgeverij "Alpina PRO" publiceert Lifehacker een fragment uit het eerste hoofdstuk.

Op dit moment is er een enorme kloof - een echte kloof - tussen onze ambitie en de realiteit van kunstmatige intelligentie. Deze kloof is ontstaan door de onopgeloste problemen van drie specifieke problemen, die elk eerlijk moeten worden aangepakt.

De eerste hiervan is wat we goedgelovigheid noemen, die gebaseerd is op het feit dat wij mensen niet echt hebben geleerd om onderscheid te maken tussen mensen en machines, en dit maakt het gemakkelijk om ons voor de gek te houden. We schrijven intelligentie toe aan computers omdat we zelf zijn geëvolueerd en hebben geleefd tussen mensen die hun acties grotendeels baseren op abstracties zoals ideeën, overtuigingen en verlangens. Het gedrag van machines lijkt vaak oppervlakkig op het gedrag van mensen, dus we wijzen machines snel hetzelfde type basismechanismen toe, zelfs als de machines die niet hebben.

We kunnen het niet helpen, maar denken aan machines in cognitieve termen ("Mijn computer denkt dat ik mijn bestand heb verwijderd"), hoe eenvoudig de regels die de machines ook volgen, zijn. Maar de conclusies die zichzelf rechtvaardigen wanneer ze worden toegepast op mensen, kunnen volledig verkeerd zijn wanneer ze worden toegepast op kunstmatige-intelligentieprogramma's. Uit eerbied voor een basisprincipe van de sociale psychologie noemen we dit de fundamentele validiteitsfout.

Een van de eerste gevallen van deze fout vond plaats in het midden van de jaren zestig, toen een chatbot genaamd Eliza sommige mensen ervan overtuigde dat hij echt begreep wat ze hem vertelden. Eliza pakte zelfs gewoon trefwoorden op, herhaalde het laatste wat de persoon tegen haar zei, en in een doodlopende situatie nam ze haar toevlucht tot standaard conversatietrucs zoals 'Vertel me over je kindertijd'. Als je je moeder noemde, zou ze je naar je familie vragen, hoewel ze geen idee had wat familie eigenlijk is of waarom het belangrijk is voor mensen. Het was slechts een reeks trucs, geen demonstratie van ware intelligentie.

Ondanks het feit dat Eliza mensen helemaal niet begreep, werden veel gebruikers voor de gek gehouden door de dialogen met haar. Sommigen brachten uren door met het typen van zinnen op het toetsenbord, op deze manier met Eliza pratend, maar de trucjes van de chatbot verkeerd interpreterend, de toespraak van de papegaai aanziend voor behulpzaam, oprecht advies of medeleven.

Joseph Weisenbaum Schepper van Eliza.

Mensen die heel goed wisten dat ze tegen een machine praatten, waren dit al snel vergeten, net zoals theaterliefhebbers hun ongeloof even opzij schuiven en vergeten dat de actie waarvan ze getuige zijn geen recht heeft om echt te worden genoemd.

Eliza's gesprekspartners eisten vaak toestemming voor een privégesprek met het systeem en drongen er na het gesprek op aan, ondanks al mijn uitleg, dat de machine hen echt begreep.

In andere gevallen kan de fout bij de beoordeling van de authenticiteit fataal zijn in de letterlijke zin van het woord. In 2016 vertrouwde een eigenaar van een geautomatiseerde Tesla-auto zozeer op de schijnbare veiligheid van de automatische pilootmodus dat hij (volgens verhalen) zich volledig onderdompelde in het kijken naar de Harry Potter-films en de auto alles alleen liet doen.

Alles ging goed - totdat het op een gegeven moment slecht werd. Na honderden of zelfs duizenden kilometers te hebben gereden zonder een ongeluk, kwam de auto (in elke zin van het woord) in botsing met een onverwacht obstakel: een witte vrachtwagen stak de snelweg over en Tesla rende recht onder de trailer door, waarbij de auto-eigenaar ter plaatse omkwam. (De auto leek de bestuurder meerdere keren te waarschuwen om de controle over te nemen, maar de bestuurder bleek te ontspannen om snel te reageren.)

De moraal van dit verhaal is duidelijk: het feit dat een apparaat een moment of twee (en zelfs zes maanden) "slim" lijkt, betekent helemaal niet dat het echt zo is of dat het alle omstandigheden aankan waarin een persoon zou adequaat reageren.

Het tweede probleem noemen we de illusie van snelle vooruitgang: vooruitgang in kunstmatige intelligentie, geassocieerd met het oplossen van gemakkelijke problemen, verwarren met vooruitgang, geassocieerd met het oplossen van echt moeilijke problemen. Dit gebeurde bijvoorbeeld met het IBM Watson-systeem: de voortgang ervan in het spel Jeopardy! leek veelbelovend, maar in feite bleek het systeem veel verder verwijderd van het begrijpen van menselijke taal dan de ontwikkelaars hadden verwacht.

Het is mogelijk dat het AlphaGo-programma van DeepMind hetzelfde pad volgt. Het spel van go is, net als schaken, een geïdealiseerd informatiespel waarbij beide spelers op elk moment het hele bord kunnen zien en de gevolgen van zetten met brute kracht kunnen berekenen.

In de meeste gevallen, in het echte leven, weet niemand iets met volledige zekerheid; onze gegevens zijn vaak onvolledig of vervormd.

Zelfs in de eenvoudigste gevallen is er veel onzekerheid. Wanneer we beslissen of we te voet naar de dokter gaan of de metro nemen (aangezien de dag bewolkt is), weten we niet precies hoe lang het zal duren om op de metro te wachten, of de trein vast komt te zitten op de weg, of we proppen ons in de koets als haring in een ton of we worden nat van de regen buiten, durven de metro niet te nemen, en hoe de dokter zal reageren op onze vertraging.

We werken altijd met de informatie die we hebben. Door Go miljoenen keren met zichzelf te spelen, heeft het DeepMind AlphaGo-systeem nooit met onzekerheid te maken gehad, het weet gewoon niet wat een gebrek aan informatie of de onvolledigheid en inconsistentie ervan, om nog maar te zwijgen van de complexiteit van menselijke interactie.

Er is nog een parameter die ervoor zorgt dat mindgames heel anders gaan dan de echte wereld, en dit heeft weer te maken met data. Zelfs complexe spellen (als de regels strikt genoeg zijn) kunnen bijna perfect worden gemodelleerd, zodat de kunstmatige-intelligentiesystemen die ze spelen gemakkelijk de enorme hoeveelheden gegevens kunnen verzamelen die ze nodig hebben om te trainen. In het geval van Go kan een machine dus een spel met mensen simuleren door simpelweg tegen zichzelf te spelen; zelfs als het systeem terabytes aan gegevens nodig heeft, zal het deze zelf aanmaken.

Programmeurs kunnen dus volledig schone simulatiegegevens verkrijgen met weinig of geen kosten. Integendeel, in de echte wereld bestaan er geen perfect schone gegevens, het is onmogelijk om het te simuleren (aangezien de spelregels voortdurend veranderen), en des te moeilijker is het om op proef vele gigabytes aan relevante gegevens te verzamelen en fout.

In werkelijkheid hebben we maar een paar pogingen om verschillende strategieën te testen.

We zijn bijvoorbeeld niet in staat om een bezoek aan de dokter 10 miljoen keer te herhalen, waarbij we de parameters van beslissingen voor elk bezoek geleidelijk aanpassen, om ons gedrag op het gebied van vervoerskeuze drastisch te verbeteren.

Als programmeurs een robot willen trainen om ouderen te helpen (bijvoorbeeld om zieke mensen naar bed te helpen), zal elk stukje data echt geld en echte menselijke tijd waard zijn; er is geen manier om alle vereiste gegevens te verzamelen met behulp van simulatiespellen. Zelfs crashtestdummies kunnen echte mensen niet vervangen.

Het is noodzakelijk om gegevens te verzamelen over echte ouderen met verschillende kenmerken van seniele bewegingen, over verschillende soorten bedden, verschillende soorten pyjama's, verschillende soorten huizen, en hier kun je geen fouten maken, omdat je een persoon laat vallen, zelfs op een afstand van meerdere centimeter van het bed zou een ramp zijn. In dit geval gaat het om een zekere vooruitgang (tot nu toe de meest elementaire) op dit gebied die is bereikt met behulp van de methoden van enge kunstmatige intelligentie. Er zijn computersystemen ontwikkeld die bijna op het niveau van de beste menselijke spelers in de videogames Dota 2 en Starcraft 2 spelen, waarbij op elk moment slechts een deel van de spelwereld aan de deelnemers wordt getoond en dus elke speler wordt geconfronteerd met de probleem van gebrek aan informatie - dat met de lichte hand van Clausewitz 'de mist van het onbekende' wordt genoemd. De ontwikkelde systemen blijven echter nog steeds zeer nauw gefocust en onstabiel in gebruik. Het AlphaStar-programma dat in Starcraft 2 wordt gespeeld, heeft bijvoorbeeld slechts één specifiek ras geleerd van een grote verscheidenheid aan personages, en bijna geen van deze ontwikkelingen is speelbaar als elk ander ras. En er is natuurlijk geen reden om aan te nemen dat de methoden die in deze programma's worden gebruikt, geschikt zijn om succesvolle generalisaties te maken in veel complexere praktijksituaties. echte levens. Zoals IBM niet één keer, maar al twee keer heeft ontdekt (eerst in schaken, dan in Jeopardy!), is succes in problemen vanuit een gesloten wereld geen garantie voor succes in een open wereld.

De derde cirkel van de beschreven kloof is een overschatting van de betrouwbaarheid. Keer op keer zien we dat zodra mensen met behulp van kunstmatige intelligentie een oplossing vinden voor een probleem dat een tijdje storingsvrij kan functioneren, ze er automatisch vanuit gaan dat bij revisie (en met een iets grotere hoeveelheid data) alles zal betrouwbaar werken. Maar dit is niet noodzakelijk het geval.

We nemen weer auto's zonder chauffeur. Het is relatief eenvoudig om een demo te maken van een autonoom voertuig dat correct over een duidelijk gemarkeerde rijstrook rijdt op een rustige weg; mensen zijn echter al meer dan een eeuw in staat om dit te doen. Het is echter veel moeilijker om deze systemen werkend te krijgen in moeilijke of onverwachte omstandigheden.

Zoals Missy Cummings, directeur van het Humans and Autonomy Laboratory aan de Duke University (en voormalig gevechtspiloot van de Amerikaanse marine), ons in een e-mail vertelde, is de vraag niet hoeveel mijl een auto zonder bestuurder kan afleggen zonder een ongeval, maar in de mate waarin waaraan deze auto's zich kunnen aanpassen aan veranderende situaties. Volgens haar Missy Cummings, e-mail aan auteurs op 22 september 2018., moderne semi-autonome voertuigen "werken meestal alleen in een zeer beperkt aantal omstandigheden, wat niets zegt over hoe ze kunnen werken onder minder dan ideale omstandigheden."

Er volledig betrouwbaar uitzien op miljoenen testkilometers in Phoenix betekent niet dat je goed presteert tijdens de moesson in Bombay.

Dit fundamentele verschil tussen hoe autonome voertuigen zich gedragen in ideale omstandigheden (zoals zonnige dagen op voorstedelijke wegen met meerdere rijstroken) en wat ze zouden kunnen doen in extreme omstandigheden, kan gemakkelijk een kwestie van succes en mislukking worden voor een hele industrie.

Met zo weinig nadruk op autonoom rijden in extreme omstandigheden en omdat de huidige methodologie niet is geëvolueerd in de richting van ervoor te zorgen dat de automatische piloot correct zal werken in omstandigheden die net als echt worden beschouwd, zal het snel duidelijk worden dat miljarden dollars zijn besteed aan methoden voor het bouwen van zelfrijdende auto's die eenvoudigweg niet in staat zijn om menselijke rijbetrouwbaarheid te bieden. Het is mogelijk dat om het niveau van technisch vertrouwen te bereiken dat we nodig hebben, benaderingen nodig zijn die fundamenteel verschillen van de huidige.

En auto's zijn slechts een voorbeeld van vele vergelijkbare. In modern onderzoek naar kunstmatige intelligentie wordt de betrouwbaarheid ervan wereldwijd onderschat. Dit komt deels omdat de meeste van de huidige ontwikkelingen op dit gebied problemen met zich meebrengen die zeer fouttolerant zijn, zoals het aanbevelen van advertenties of het promoten van nieuwe producten.

Inderdaad, als we je vijf soorten producten aanbevelen, en je vindt er maar drie van, zal er geen kwaad gebeuren. Maar in een aantal kritieke AI-toepassingen voor de toekomst, waaronder auto's zonder bestuurder, ouderenzorg en gezondheidszorgplanning, zal mensachtige betrouwbaarheid van cruciaal belang zijn.

Niemand zal een huisrobot kopen die je bejaarde grootvader maar vier van de vijf keer veilig naar bed kan dragen.

Zelfs bij die taken waar moderne kunstmatige intelligentie in theorie in het best mogelijke licht zou moeten verschijnen, treden er regelmatig ernstige storingen op, die er soms erg grappig uitzien. Een typisch voorbeeld: computers hebben in principe al heel goed geleerd te herkennen wat er in dit of dat beeld gebeurt (of gebeurt).

Soms werken deze algoritmen geweldig, maar vaak produceren ze ongelooflijke fouten. Als je een afbeelding laat zien aan een geautomatiseerd systeem dat bijschriften genereert voor foto's van alledaagse taferelen, krijg je vaak een antwoord dat opmerkelijk veel lijkt op wat een mens zou schrijven; bijvoorbeeld voor de onderstaande scène, waar een groep mensen frisbee speelt, geeft het veel gepubliceerde ondertitelingssysteem van Google het precies de juiste naam.

Afb. 1.1. Groep jongeren die frisbee spelen (plausibele fotobijschrift, automatisch gegenereerd door AI)
Afb. 1.1. Groep jongeren die frisbee spelen (plausibele fotobijschrift, automatisch gegenereerd door AI)

Maar vijf minuten later kun je gemakkelijk een absoluut absurd antwoord van hetzelfde systeem krijgen, zoals bijvoorbeeld gebeurde met dit verkeersbord, waarop iemand stickers plakte: de computer genaamd De makers van het systeem hebben niet uitgelegd waarom deze fout is opgetreden, maar dergelijke gevallen zijn niet ongewoon. We kunnen aannemen dat het systeem in dit specifieke geval de foto classificeerde (misschien in termen van kleur en textuur) als vergelijkbaar met de andere foto's (waarvan het geleerd heeft) gelabeld als 'een koelkast gevuld met veel eten en drinken'. Natuurlijk begreep de computer niet (wat een persoon gemakkelijk zou kunnen begrijpen) dat een dergelijke inscriptie alleen geschikt zou zijn in het geval van een grote rechthoekige metalen doos met verschillende (en zelfs dan niet alle) voorwerpen erin. deze scène is "een koelkast met veel eten en drinken."

Rijst. 1.2. Koelkast gevuld met heel veel eten en drinken (totaal ongeloofwaardige kop, gemaakt door hetzelfde systeem als hierboven)
Rijst. 1.2. Koelkast gevuld met heel veel eten en drinken (totaal ongeloofwaardige kop, gemaakt door hetzelfde systeem als hierboven)

Evenzo identificeren auto's zonder bestuurder vaak correct wat ze 'zien', maar soms lijken ze het voor de hand liggende over het hoofd te zien, zoals in het geval van Tesla, die regelmatig op de automatische piloot tegen geparkeerde brandweerwagens of ambulances botste. Blinde vlekken zoals deze kunnen zelfs nog gevaarlijker zijn als ze zich bevinden in systemen die elektriciteitsnetten controleren of die verantwoordelijk zijn voor het bewaken van de volksgezondheid.

Om de kloof tussen ambitie en de realiteit van kunstmatige intelligentie te overbruggen, hebben we drie dingen nodig: een duidelijk bewustzijn van de waarden die in dit spel op het spel staan, een duidelijk begrip van waarom moderne AI-systemen hun functies niet betrouwbaar genoeg uitvoeren, en, eindelijk, een nieuwe ontwikkelingsstrategie machine denken.

Aangezien de inzet op kunstmatige intelligentie erg hoog is in termen van banen, veiligheid en de structuur van de samenleving, is het voor ons allemaal dringend nodig - AI-professionals, aanverwante beroepen, gewone burgers en politici - om de ware stand van zaken te begrijpen op dit gebied om het niveau en de aard van de ontwikkeling van de hedendaagse kunstmatige intelligentie kritisch te leren beoordelen.

Net zoals het belangrijk is voor burgers die geïnteresseerd zijn in nieuws en statistieken om te begrijpen hoe gemakkelijk het is om mensen te misleiden met woorden en cijfers, zo is hier een steeds belangrijker aspect van begrip, zodat we kunnen achterhalen waar kunstmatige intelligentie is. waar is het echt; wat hij nu kan en wat hij niet weet en misschien ook niet zal leren.

Het belangrijkste is om te beseffen dat kunstmatige intelligentie geen magie is, maar slechts een reeks technieken en algoritmen, die elk hun eigen sterke en zwakke punten hebben, geschikt zijn voor sommige taken en niet geschikt voor andere. Een van de belangrijkste redenen waarom we dit boek wilden schrijven, is dat veel van wat we lezen over kunstmatige intelligentie ons een absolute fantasie lijkt, voortkomend uit een ongegrond vertrouwen in de bijna magische kracht van kunstmatige intelligentie.

Ondertussen heeft deze fictie niets te maken met moderne technologische mogelijkheden. Helaas is en wordt de discussie over AI onder het grote publiek sterk beïnvloed door speculatie en overdrijving: de meeste mensen hebben geen idee hoe moeilijk het is om universele kunstmatige intelligentie te creëren.

Laten we de verdere discussie verduidelijken. Hoewel het verhelderen van de realiteit van AI serieuze kritiek van ons zal vergen, zijn we zelf geenszins tegenstanders van kunstmatige intelligentie, we houden erg van deze kant van technologische vooruitgang. We hebben een aanzienlijk deel van ons leven als professionals op dit gebied geleefd en we willen dat het zich zo snel mogelijk ontwikkelt.

De Amerikaanse filosoof Hubert Dreyfus schreef ooit een boek over welke hoogte kunstmatige intelligentie volgens hem nooit kan bereiken. Daar gaat dit boek niet over. Het richt zich gedeeltelijk op wat AI momenteel niet kan en waarom het belangrijk is om het te begrijpen, maar een aanzienlijk deel ervan gaat over wat er kan worden gedaan om het computerdenken te verbeteren en uit te breiden naar gebieden waar het nu eerst moeite heeft om het eerst te doen.

We willen niet dat kunstmatige intelligentie verdwijnt; we willen dat het bovendien radicaal verbetert, zodat we er echt op kunnen rekenen en met zijn hulp de vele problemen van de mensheid kunnen oplossen. We hebben veel kritiek op de huidige staat van kunstmatige intelligentie, maar onze kritiek is een uiting van liefde voor de wetenschap die we doen, niet een oproep om op te geven en alles achter te laten.

Kortom, wij geloven dat kunstmatige intelligentie onze wereld inderdaad serieus kan veranderen; maar we zijn ook van mening dat veel van de basisveronderstellingen over AI moeten veranderen voordat we kunnen praten over echte vooruitgang. Onze voorgestelde "reset" van kunstmatige intelligentie is helemaal geen reden om het onderzoek stop te zetten (hoewel sommigen ons boek misschien precies in deze geest begrijpen), maar eerder een diagnose: waar lopen we nu vast en hoe komen we eruit de situatie van vandaag.

Wij zijn van mening dat de beste manier om vooruit te komen is door naar binnen te kijken, de structuur van onze eigen geest onder ogen ziend.

Echt intelligente machines hoeven geen exacte replica's van mensen te zijn, maar iedereen die eerlijk naar kunstmatige intelligentie kijkt, zal zien dat er nog veel te leren is van mensen, vooral van jonge kinderen, die in veel opzichten veruit superieur zijn aan machines in hun vermogen om nieuwe concepten te absorberen en te begrijpen.

Medische wetenschappers karakteriseren computers vaak als "bovenmenselijke" (op de een of andere manier) systemen, maar het menselijk brein is nog steeds enorm superieur aan zijn silicium-tegenhangers in ten minste vijf aspecten: we kunnen taal begrijpen, we kunnen de wereld begrijpen, we kunnen flexibel aanpassen aan nieuwe omstandigheden, we kunnen snel nieuwe dingen leren (zelfs zonder grote hoeveelheden gegevens) en kunnen redeneren in het licht van onvolledige en zelfs tegenstrijdige informatie. Op al deze fronten lopen moderne kunstmatige-intelligentiesystemen hopeloos achter op de mens.

Kunstmatige intelligentie opnieuw opstarten
Kunstmatige intelligentie opnieuw opstarten

Artificial Intelligence: Reboot zal mensen interesseren die moderne technologieën willen begrijpen en willen begrijpen hoe en wanneer een nieuwe generatie AI ons leven kan verbeteren.

Aanbevolen: