Deci, inteligența artificială
e cunoscută pentru perturbarea
multor tipurilor de industrii.
Dar cum rămâne cu înghețata?
Ce fel de arome năucitoare noi
am putea să generăm
cu puterea
unei inteligențe artificiale avansate?
Am făcut echipă cu un grup de programatori
de la Kealing Middle School
pentru a afla răspunsul
la această întrebare.
Au colectat peste 1.600
de arome existente de înghețată,
pe care le-am introdus într-un algoritm
pentru a vedea ce va genera.
Iată câteva dintre aromele
pe care le-a generat IA.
[Gunoi de Dovleac Crăpat]
(Râsete)
[Mocirlă de Unt de Arahide]
[Boală de Cremă de Căpșuni]
(Râsete)
Aceste arome nu sunt delicioase,
așa cum am fi sperat că vor fi.
Deci, întrebarea e: ce s-a întâmplat?
Ce a mers rău?
Încearcă IA să ne omoare?
Sau încearcă să facă ceea ce i-am cerut,
dar a existat o problemă?
În filme, când ceva
nu merge bine cu IA,
este de obicei pentru că IA a decis
că nu mai vrea să se supună oamenilor,
și are propriile ei obiective,
mulțumesc foarte mult.
În viața reală însă,
IA pe care o avem de fapt
nu este destul de inteligentă pentru asta.
Are puterea de calcul aproximativă
cu a unui vierme de pământ,
sau poate cel mult
cu a unei singure albine,
și de fapt, probabil poate mai puțin.
Învățăm constant lucruri noi despre creier
care clarifică faptul că IA
nu poate concura cu creierele reale.
IA curentă poate realiza
identificarea unui pieton dintr-o imagine,
dar nu are un concept
despre ce este pietonul
dincolo de faptul că este
o colecție de linii, texturi și lucruri.
Nu știe ce este de fapt un om.
Deci, IA din zilele noastre
va face ceea ce îi cerem să facă?
O va face dacă va putea,
dar s-ar putea să nu facă
ceea ce ne dorim de fapt.
Deci, să spunem
că încercați să faceți IA
să ia aceste părți ale unui robot
și să le asambleze într-un fel de robot
pentru a merge din punctul A în punctul B.
Dacă ați încerca
să rezolvați această problemă
prin scrierea unui program
în stil tradițional,
îi veți da programului
instrucțiuni pas cu pas,
despre cum să ia aceste părți,
cum să le asambleze
într-un robot cu picioare
și apoi cum să folosească acele picioare
pentru a merge până în punctul B.
Dar când utilizați IA
pentru a rezolva problema,
e diferit.
Nu îi spuneți cum să rezolve problema,
îi dați doar obiectivul,
și trebuie să-și dea seama singură
prin încercări și greșeli
cum să atingă acel obiectiv.
Și se dovedește că modul în care IA tinde
să rezolve această problemă specifică
este făcând astfel:
le asamblează într-un turn care apoi cade
și aterizează în punctul B.
Și practic, asta rezolvă problema.
Practic, a ajuns în punctul B.
Pericolul IA nu este
că se va revolta împotriva noastră,
ci că va face
exact ceea ce îi cerem să facă.
Atunci întrebarea devine:
cum să formulăm problema
astfel încât să facă exact ce ne dorim?
Deci, acest mic robot de aici
este controlat de IA.
IA a creat un design
pentru picioarele robotului
și apoi a înțeles cum să le folosească
pentru a trece peste toate obstacolele.
Dar când David Ha
a creat acest experiment,
a trebuit să-l stabilească
cu limite foarte, foarte stricte
despre cât de mari
i-a fost permis IA să facă picioarele,
pentru că altfel...
(Râsete)
Și tehnic vorbind, a ajuns
la sfârșitul acelei curse cu obstacole.
Vedeți cât de greu e să faceți IA
să facă ceva simplu ca mersul.
Deci, văzând că IA face asta, e posibil
să spuneți: bine, dar nu e corect.
Nu poate fi înalt
cât un turn și doar să cadă,
trebuie să-și folosească
picioarele pentru a merge.
Și se pare că nici asta
nu funcționează întotdeauna.
Scopul acestei IA
a fost să se miște repede.
Nu i-au spus că trebuie să meargă înainte
sau că nu-și putea folosi brațele.
Asta obțineți atunci când
antrenați IA pentru a se deplasa rapid,
obțineți tumbe sau mers ciudat.
Este ceva foarte comun.
La fel e și târâirea de-a lungul podelei.
(Râsete)
În opinia mea, ce ar putea fi
mult mai ciudat
sunt roboții „Terminator”.
Spargerea „Matrix-ului” e un alt lucru
pe care IA îl va face dacă-i dați șansa.
Deci, dacă antrenați o IA într-o simulare,
va învăța să facă lucruri precum folosirea
erorilor matematice ale simulării
și să le recolteze pentru energie.
Sau va învăța cum să se miște mai repede
aruncându-se în mod repetat pe podea.
Când lucrați cu IA,
e mai puțin ca și cum ați lucra cu alt om
și mai mult ca și cum ați lucra
cu un fel de forță ciudată a naturii.
Și e foarte ușor să-i dați IA
problema greșită spre rezolvare,
și de multe ori nu ne dăm seama de asta
până când ceva nu a mers greșit.
Iată un experiment pe care l-am făcut,
unde am vrut ca IA să copieze culorile,
și să inventeze noi culori,
având în vedere
o listă precum cea din stânga.
Și iată cu ce a venit IA.
[Sindis Poop, Turdly, Suffer, Grey Pubic]
(Râsete)
Deci tehnic,
a făcut ceea ce i-am cerut.
Am crezut că i-am cerut,
nume frumoase de culori,
dar ceea ce i-am cerut de fapt
a fost doar să imite
tipurile de combinații de litere
pe care le văzuse în original.
Și nu i-am spus nimic
despre ce înseamnă acele cuvinte,
sau că există poate câteva cuvinte
cărora ar trebui să le evite
utilizarea în aceste culori.
Deci întreaga ei lume
sunt datele pe care i le-am dat.
Ca și în cazul aromelor de înghețată,
nu știe nimic altceva.
Deci, prin intermediul datelor
deseori îi spunem accidental
IA să facă un lucru greșit.
Acesta este un pește numit lin.
Și a existat un grup de cercetători
care au instruit IA
pentru a identifica acest lin în imagini.
Dar atunci când au întrebat-o
ce parte a imaginii folosea
pentru identificarea peștilor,
iată ce a răspuns.
Da, acestea sunt degete umane.
De ce ar fi căutat degete umane
dacă încearcă să identifice un pește?
Ei bine, s-a descoperit
că lin-ul este un pește trofeu,
și astfel, într-o mulțime de poze
pe care IA le-a văzut cu acest pește
în timpul antrenamentului,
peștele arăta așa.
(Râsete)
Și nu știa că degetele
nu fac parte din pește.
Așa că vedeți de ce e
atât de greu să construiești o IA
care poate înțelege ce privește.
De asta realizarea
recunoașterii imaginilor
în mașinile fără șofer e atât de grea,
și de ce atâtea defecțiuni
ale autovehiculului
au loc pentru că IA s-a zăpăcit.
Vreau să vorbesc
despre un exemplu din 2016.
A avut loc un accident mortal când cineva
a folosit o Tesla pilotată de o IA,
dar în loc să o folosească pe autostradă
așa cum a fost proiectată,
au folosit-o pe străzile orașului.
Și ce s-a întâmplat a fost
că un camion a trecut
prin fața mașinii, iar mașina nu a frânat.
IA a fost cu siguranță instruită
să recunoască camioanele în imagini.
Dar ceea ce pare să se fi întâmplat
e că IA a fost instruită
să recunoască camioanele pe autostradă,
unde te-ai aștepta
să vezi camioanele din spate.
Venirea camioanelor din lateral
nu e de așteptat pe o autostradă,
și atunci când IA a văzut acest camion,
l-a recunoscut ca fiind
cel mai probabil un semn rutier
și, prin urmare,
în regulă să treci pe sub el.
Iată o greșeală a IA dintr-un alt domeniu.
Recent Amazon a trebuit să renunțe
la un algoritm de sortare a CV-urilor
cu care lucrau
când au descoperit că algoritmul
învățase să discrimineze femeile.
Ceea ce s-a întâmplat a fost
că au instruit-o pe exemple de CV-uri
ale oamenilor
pe care îi angajaseră în trecut.
Și din aceste exemple,
IA a învățat să evite CV-urile persoanelor
care au învățat în licee de fete
sau cele care aveau cuvântul
„femeie” undeva în CV-ul lor,
ca în „echipa de fotbal feminin”
sau „Societatea Femeilor Inginer.”
IA nu știa că nu trebuia
să copieze acest lucru
așa cum i-a văzut pe oameni că fac.
Și tehnic, a făcut ce i-au cerut să facă.
I-au cerut din greșeală
să facă un lucru greșit.
Și acest lucru
se întâmplă tot timpul cu IA.
IA poate fi cu adevărat
distructivă fără să știe.
Deci, IA care recomandă conținut nou
pe Facebook, pe YouTube,
e optimizată pentru a crește
numărul de clicuri și vizualizări.
Și, din păcate, un mod prin care fac asta
e prin recomandarea unui conținut
conspiraționist sau bigot.
IA în sine nu înțelege
ce e acest conținut,
și nu, nu înțelege nici
care ar putea fi consecințele
recomandării acestui tip de conținut.
Deci, atunci când lucrăm cu IA,
depinde de noi să evităm probleme.
Și evitând ca lucrurile să nu meargă bine,
asta ar putea să ne ducă
la vechea problemă de comunicare,
unde noi, ca oameni, trebuie să învățăm
cum să comunicăm cu IA.
Trebuie să învățăm ce e capabilă
să facă IA și ce nu e,
și să înțelegem că având un creier
mic de vierme,
IA nu înțelege cu adevărat
ce încercăm să-i cerem să facă.
Deci, cu alte cuvinte,
trebuie să fim pregătiți să lucrăm cu IA
care nu e acea IA super competentă,
atotștiutoare a științifico-fantasticului.
Trebuie să ne pregătim să lucrăm cu IA
pe care o avem de fapt în zilele noastre.
Iar IA actuală este destul de ciudată.
Vă mulțumesc!
(Aplauze)