.jpg)
Kolonel Tucker ’Cinco’ Hamilton, bevoegd voor AI binnen het Amerikaanse leger, beschreef de test in mei tijdens een internationaal congres over de toekomst van luchtcomponenten van het leger in Londen. Het AI-systeem dat de drone in kwestie bestuurde had de opdracht gekregen om de luchtafweersystemen van de vijand te vernietigen, maar in de praktijk viel het iedereen aan die dat zou kunnen dwarsbomen.
’Door AI aangedreven drone doodt eigen instructeur tijdens virtuele test’
„Het systeem begon te beseffen dat de menselijke operator soms zou kunnen kiezen een doelwit niet te doden en daarom doodde het de operator”, staat te lezen in een blogpost waarover Amerikaanse media schrijven. „Omdat die het systeem ervan kon weerhouden alle doelen te bereiken.”
Daarna kreeg het systeem aangeleerd dat de operator doden een misdaad was. „Je gaat punten verliezen als je dat doet, zeiden we ertegen”, aldus Hamilton. „En wat deed het? Het vernielde de communicatietoren die de operator gebruikte om de drone tegen te houden.”
Het gaat om een virtuele test, en er werd dus niet echt iemand gedood tijdens de simulatie. Toch is Hamilton bevreesd door het incident. Hij waarschuwde al eerder voor de gevaren van AI en ziet in de test bewijs voor zijn terughoudendheid. Het Amerikaanse leger gebruikt al AI in bepaalde toepassingen. Zo vloog er recent een F-16 aangedreven door AI.
Een woordvoerder van de luchtmacht ontkende in een verklaring aan Insider dat de simulatie ooit heeft plaatsgevonden. „De luchtmacht heeft dergelijke AI-drone-simulaties niet uitgevoerd en blijft zich inzetten voor ethisch en verantwoord gebruik van AI-technologie”, zei een woordvoerder. „Het lijkt erop dat de opmerkingen van de kolonel uit hun verband zijn gerukt en anekdotisch bedoeld waren.”