Microsoft vuole che il Congresso metta al bando le frodi deepfake generate dall’intelligenza artificiale


Microsoft chiede ai membri del Congresso di regolamentare l’uso di deepfake generati dall’intelligenza artificiale per proteggersi da frodi, abusi e manipolazioni. Il vicepresidente e presidente di Microsoft, Brad Smith, chiede un’azione urgente da parte dei decisori politici per proteggere le elezioni e proteggere gli anziani dalle frodi e i bambini dagli abusi.

“Mentre il settore tecnologico e i gruppi non-profit hanno recentemente adottato misure per affrontare questo problema, è diventato evidente che anche le nostre leggi dovranno evolversi per combattere le frodi deepfake”, afferma Smith in un submit del weblog. “Una delle cose più importanti che gli Stati Uniti possono fare è approvare una legge completa sulle frodi deepfake per impedire ai criminali informatici di utilizzare questa tecnologia per derubare gli americani comuni”.

Microsoft vuole uno “statuto sulle frodi deepfake” che fornirà alle forze dell’ordine un quadro giuridico per perseguire truffe e frodi generate dall’intelligenza artificiale. Smith chiede inoltre ai legislatori di “garantire che le nostre leggi federali e statali sullo sfruttamento e l’abuso sessuale dei minori e sulle immagini intime non consensuali vengano aggiornate per includere i contenuti generati dall’intelligenza artificiale”.

Microsoft ha dovuto implementare più controlli di sicurezza per i propri prodotti AI, dopo che una scappatoia nel creatore di immagini Designer AI dell’azienda ha permesso alle persone di creare immagini esplicite di celebrità come Taylor Swift. “Il settore privato ha la responsabilità di innovare e implementare misure di sicurezza che impediscano l’uso improprio dell’AI”, afferma Smith.

Mentre la FCC ha già vietato le chiamate automatiche con voci generate dall’intelligenza artificiale, l’intelligenza artificiale generativa semplifica la creazione di audio, immagini e video falsi, qualcosa che stiamo già vedendo durante la corsa alle elezioni presidenziali del 2024. Elon Musk ha condiviso un video deepfake che imitava la vicepresidente Kamala Harris su X all’inizio di questa settimana, in un submit che sembra violare le politiche di X contro i media sintetici e manipolati.

Microsoft vuole che submit come quello di Musk siano chiaramente etichettati come deepfake. “Il Congresso dovrebbe richiedere ai fornitori di sistemi di intelligenza artificiale di utilizzare strumenti di provenienza all’avanguardia per etichettare i contenuti sintetici”, afferma Smith. “Questo è essenziale per creare fiducia nell’ecosistema informativo e aiuterà il pubblico a capire meglio se i contenuti sono generati dall’intelligenza artificiale o manipolati”.


Leave a Reply

Your email address will not be published. Required fields are marked *