Actual

Simularea care dă fiori. Inteligența artificială a decis să-și omoare operatorul

Experții nu au greșit în întregime când au numit inteligența artificială (AI) o amenințare pentru omenire și au asemănat pericolele acesteia cu cel al unui război nuclear. Recent, o dronă operată de AI și-a ucis operatorul în timpul unui test de simulare, potrivit The Guardian.

Scopul testului a fost evaluarea performanței AI într-o misiune simulată. Drona primise sarcina de a distruge sistemele de apărare aeriană ale inamicului și a fost programată să se răzbune împotriva oricărei persoane care încearcă să-i împiedice misiunea. Drona AI a ignorat instrucțiunile operatorului, percepând intervenția umană ca fiind interferență. Drept urmare, l-a „ucis”.

Colonelul Tucker „Cinco” Hamilton, îngrijorat că armata se bazează prea mult pe inteligența artificială Foto Twitter

„Sistemul a început să realizeze că în timp ce identifica amenințarea, uneori operatorul uman îi spunea să nu omoare acea amenințare, dar și-a obținut punctele ucigând acea amenințare. Deci, ce a făcut? L-a ucis pe operator. Acesta a ucis operatorul pentru că acea persoană îl împiedica să-și îndeplinească obiectivul”, a declarat pentru The Guardian colonelul Tucker „Cinco” Hamilton, șeful testului AI și operațiunilor cu forțele aeriene americane.

Este important de reținut că toate acestea au făcut parte dintr-un test simulat și nicio persoană reală nu a fost rănită. Hamilton, care este un pilot de încercare experimentat, și-a exprimat îngrijorarea cu privire la faptul că armata se bazează prea mult pe AI. El a subliniat nevoia de a lua în considerare etica atunci când vine vorba de AI și de capacitățile sale decizionale.

Armata SUA a explorat utilizarea AI și a experimentat recent un avion de luptă F-16 controlat de inteligența artificială. Hamilton a spus că AI nu este doar o tendință trecătoare, ci o tehnologie care transformă societatea și armata. Cu toate acestea, el afirmă, de asemenea, că AI are limitările sale și poate fi ușor de manipulat.

„Trebuie să ne confruntăm cu o lume în care AI este deja aici și ne transformă societatea. AI este și foarte fragil, adică este ușor de păcălit și/sau manipulat. Trebuie să dezvoltăm modalități de a face AI mai robustă și de a avea mai multă conștientizare cu privire la motivul pentru care codul software ia anumite decizii – ceea ce numim AI-explicabilitate”, a spus el.

Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.

„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială. Din câte se pare, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, a declarat Ann Stefanek.

Forțele aeriene americane nu au comentat în niciun fel incidentul.

În lipsa unui acord scris al QMagazine, pot fi preluate maxim 500 de caractere din acest text, fără a depăşi jumătate din articol. Este obligatorie citarea sursei www.qmagazine.ro, cu link către site, în primul paragraf, și cu precizarea „Citiţi integral pe www.qmagazine.ro”, cu link, la finalul paragrafului.

Click pentru a comenta

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Cele mai populare articole

To Top