ChatGpt con fake news può limitare nostre libertà
Il social serve allo scopo di addestrare l’algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti
"La raccolta realizzata per noi illecitamente riguarda, oltre a una quantità enorme di informazioni acquisite dal web, i dati personali degli utenti. Probabilmente anche quelli dei minorenni, visto che ChatGpt non ha un sistema di filtri per la verifica dell’età. Avverte che il servizio è riservato a chi ha più di 13 anni, ma poi non controlla chi vi accede". Lo afferma Pasquale Stanzione, Garante della Privacy, che ha firmato il provvedimento che blocca ChatGpt, in un'intervista al quotidiano 'La Repubblica'.
"Abbiamo potuto accertare il fine del machine learning: il database che hanno costruito, e che è fermo al 2021, serve allo scopo di addestrare l’algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti, migliorando la potenza di calcolo. - ha spiegato Stanzione - Non è paragonabile a Google. Il machine learning di ChatGpt, oltretutto, non è legittimato da presupposti giuridici e può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l’algoritmo fornisce".
"Bisogna attendere gli sviluppi dell’istruttoria che abbiamo aperto e tenere conto che il nostro è un provvedimento cautelare, come tale dunque suscettibile di evoluzione nel corso del procedimento. Abbiamo inviato a OpenAI una serie di quesiti, hanno venti giorni per rispondere. - ha aggiunto Stanzione - Il nostro provvedimento ha un effetto inibitorio limitatamente ai dati delle persone fisiche stabilite nel territorio italiano. Vediamo se OpenAI rispetterà le disposizioni".
Sul rischio che strumenti del genere siano utilizzati da apparati statali per inondare il web di propaganda e fake news, Stanzione ha detto che "in regimi non democratici questo rischio è sicuramente concreto e, direi, preoccupante: la potenza di calcolo posta al servizio di Paesi che non possano dirsi davvero Stati di diritto rischia di avere un effetto deflagrante sulla libertà delle persone. Se allarghiamo il discorso all’uso dell’intelligenza artificiale in contesti bellici, gli effetti sono anche peggiori".
Commenti