Experții nu au greșit în întregime când au numit inteligența artificială (AI) o amenințare pentru omenire și au asemănat pericolele acesteia cu cel al unui război nuclear. Recent, o dronă operată de AI și-a ucis operatorul în timpul unui test de simulare, potrivit The Guardian.
- PSD asigură că moțiunea va trece. Parlamentarii PNL, USR și UDMR vor fi prezenți, dar nu vor vota
- Ana Blandiana și Zbigniew Herbert, între destin și premiu
- „Criminalitatea este în creștere în întreaga UE, iar în multe privințe are chip de copil”
- Proiectul Neptun Deep: încep lucrările de instalare a conductei de gaze în Marea Neagră
- Va fi Chivu al treilea „Mag”, după Herrera și Mourinho?
Scopul testului a fost evaluarea performanței AI într-o misiune simulată. Drona primise sarcina de a distruge sistemele de apărare aeriană ale inamicului și a fost programată să se răzbune împotriva oricărei persoane care încearcă să-i împiedice misiunea. Drona AI a ignorat instrucțiunile operatorului, percepând intervenția umană ca fiind interferență. Drept urmare, l-a „ucis”.

Colonelul Tucker „Cinco” Hamilton, îngrijorat că armata se bazează prea mult pe inteligența artificială Foto Twitter
„Sistemul a început să realizeze că în timp ce identifica amenințarea, uneori operatorul uman îi spunea să nu omoare acea amenințare, dar și-a obținut punctele ucigând acea amenințare. Deci, ce a făcut? L-a ucis pe operator. Acesta a ucis operatorul pentru că acea persoană îl împiedica să-și îndeplinească obiectivul”, a declarat pentru The Guardian colonelul Tucker „Cinco” Hamilton, șeful testului AI și operațiunilor cu forțele aeriene americane.
Este important de reținut că toate acestea au făcut parte dintr-un test simulat și nicio persoană reală nu a fost rănită. Hamilton, care este un pilot de încercare experimentat, și-a exprimat îngrijorarea cu privire la faptul că armata se bazează prea mult pe AI. El a subliniat nevoia de a lua în considerare etica atunci când vine vorba de AI și de capacitățile sale decizionale.
Armata SUA a explorat utilizarea AI și a experimentat recent un avion de luptă F-16 controlat de inteligența artificială. Hamilton a spus că AI nu este doar o tendință trecătoare, ci o tehnologie care transformă societatea și armata. Cu toate acestea, el afirmă, de asemenea, că AI are limitările sale și poate fi ușor de manipulat.
„Trebuie să ne confruntăm cu o lume în care AI este deja aici și ne transformă societatea. AI este și foarte fragil, adică este ușor de păcălit și/sau manipulat. Trebuie să dezvoltăm modalități de a face AI mai robustă și de a avea mai multă conștientizare cu privire la motivul pentru care codul software ia anumite decizii – ceea ce numim AI-explicabilitate”, a spus el.
Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.
„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială. Din câte se pare, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, a declarat Ann Stefanek.
Forțele aeriene americane nu au comentat în niciun fel incidentul.













































