Intelligenza artificiale: sa sparare a DOOM, gli esperti sono allarmati

Un ricercatore di Microsoft e dell'università di York ha utilizzato l'intelligenza artificiale per giocare a DOOM, notando la facilità nello sparare dimostrata dal programma.

Immagine di Intelligenza artificiale: sa sparare a DOOM, gli esperti sono allarmati
Autore: Davide Mirabello ,
Attualità
1' 33''
Fonte

L'intelligenza artificiale sta imparando a sparare e tutto ciò potrebbe rappresentare un problema. Lo ha dimostrato un ricercatore di Microsoft e dell'Università di York, il cui nome è Adrian de Wynter, che ha messo alla prova GPT-4 notando come sia in grado di giocare a DOOM senza dover fare alcun addestramento preliminare. 

Advertisement

Secondo quanto rivelato l'intelligenza artificiale di di GPT-4 può giocare a DOOM eseguendo azioni come l'aprire porte, combattere nemici e sparare con le armi. Tra le problematiche dimostrate dall'IA, però, c'è il fatto che una volta che un nemico esce dallo schermo perda di consapevolezza. Al di fuori del proprio campo visivo l'intelligenza artificiale non è in grado di reagire agli input che arrivano. 

Il ricercatore Adrian de Wynter ha evidenziato:

È piuttosto preoccupante quanto sia stato facile costruire un codice capace di colpire qualcosa in maniera davvero accurata.  Si tratta di una ricerca che potrebbe essere applicata nei test automatici dei videogiochi, e di un modello che non ha consapevolezza riguardo a ciò che sta facendo. Per la società e per il possibile abuso che ne potrebbe derivare tutto ciò offre degli spunti di riflessione.

L'Unione europea ed il primo regolamento sull'intelligenza artificiale

Advertisement

Torna perciò d'attualità la discussione riguardo l'eticità dell'utilizzo dell'intelligenza artificiale, e la possibilità di scongiurarne gli abusi. Da pochissimo l'Unione europea ha approvato la prima regolamentazione al mondo in materia. L'IA Act entrerà in vigore a maggio, e verrà attuato dal 2025. 

Sono state stabilite quattro categorie di rischio per le tecnologie, che vanno da inaccettabile a rischio basso. Il regolamento vieta pratiche come il social scoring, gli strumenti di polizia predittiva, ed i sistemi di riconoscimento delle emozioni. Per coloro che infrangessero le regole sono previste sanzioni fino a 35 milioni, e il 7% del fatturato.

Non perderti le nostre ultime notizie!

Iscriviti al nostro canale Telegram e rimani aggiornato!