Intelligenza artificiale: Midjourney ha accusato Stability AI di furto di dati

Autore: Davide Mirabello ,
Attualità
1' 39''
Fonte

Due aziende dell'intelligenza artificiale sono entrate in conflitto:  Midjourney ha da poco vietato al personale di Stability AI di utilizzare il suo servizio. Secondo quanto stabilito da Midjourney, i dipendenti di Stability AI avrebbero cercato di estrarre in modo illecito dei dati.

Si tratta di una situazione che estende alle stesse aziende di IA la questione riguardante lo sfruttamento del proprio materiale di lavoro. Un tema che è stato alla base dello scioperi di Hollywood sia da parte degli attori che degli sceneggiatori. 

Il conflitto tra Midjourney e Stability AI sarebbe iniziato il 2 marzo, quando Midjourney ha segnalato su Discord un'interruzione del servizio che impediva alle immagini generate di comparire nelle gallerie utenti. Successivamente Midjourney ha affermato che il problema era causato da un'attività simile a una botnet (ovvero una rete formata da dispositivi infettati da malware) generata da account a pagamento collegati ai dipendenti di Stability AI.

Secondo Midjourney "qualcuno di Stability AI stava cercando di acquisire tutte le coppie di prompt e immagini". Perciò ha vietato ai dipendenti di Stability AI di utilizzare il proprio servizio a tempo indeterminato. Midjourney ha deciso anche di estendere l'iniziativa, vietando ai dipendenti di qualsiasi azienda di fare automazione aggressiva.

La regolamentazione dell'intelligenza artificiale

La questione sta facendo discutere sul web, considerando che il tema delle proprietà intellettuali e dell'origine dei materiali di lavoro utilizzati dall'intelligenza artificiale  è ancora tema di regolamentazione e discussione. 

Sotto questo punto di vista l'Unione Europea si è messa sulla mappa, considerando che ha da poco approvato la prima legge che regolamenta l'utilizzo dell'intelligenza  artificiale

Attraverso l'IA Act sono state stabilite quattro categorie di rischio per le tecnologie, che vanno da inaccettabile a rischio basso. Tra i provvedimenti vietati ci sono il social scoring, gli strumenti di polizia predittiva, e i sistemi di riconoscimento delle emozioni. Chi non rispetterà le regole subirà sanzioni fino a 35 milioni e il 7% del fatturato.

Immagine tratta da 123RF.

Non perderti le nostre ultime notizie!

Iscriviti al nostro canale Telegram e rimani aggiornato!

Sto cercando articoli simili...