“Oggi chi di fatto gestisce l’innovazione dell’intelligenza artificiale sono nove compagnie globali”, l’analisi di padre Benati

“Oggi chi di fatto gestisce l’innovazione dell’intelligenza artificiale sono nove compagnie globali che hanno un valore di capitalizzazione superiore al trilione di dollari. Cioè sono nati dei conglomerati enormi da quella cosa lì, che hanno anche valore più di tanti stati. Ecco, questa cosa forse che al mutare dello scenario ci dice che forse quella premessa iniziale non è più in grado di gestire anche interessi che sono diventati globali“, spiega padre Benati, Presidente della Commissione AI per l’informazione e Professore della Pontificia Università Gregoriana, in una recente audizione al Senato.

So le origini di questo. Cioè tutto questo è stato fatto negli Stati Uniti con Al Gore come vicepresidente, nella famosa sezione, se non vado errato, la 230 C di un atto che fecero, per far crescere quella sezione di mercato, cioè togliergli la responsabilità e quello che gli ha permesso di investire e di far tornare i soldi dell’investimento. Quello però era fatto in presenza di tante piccole entità commerciali.

C’è un grande elefante nella stanza nella regolazione dell’intelligenza artificiale: “è il ruolo delle piattaforme. Questo è l’elefante nella stanza. Dove, mi dicono i miei colleghi delle piattaforme, c’è una giurisprudenza un po’ timida, nel riconoscere il ruolo d’editore. Quindi forse è lì che bisognerebbe intervenire.

Però qui io per fortuna faccio solo l’eticista, faccio le domande, le risposte non spettano a me. Anche perché sono risposte complesse. Sono risposte complesse che riguardano anche non solo l’Italia, ma anche l’Europa, perché poi bisogna mediare su questi livelli. Però è chiaro che questo è il grande tema, soprattutto di fronte a quello che è un sistema di business, e questa è la cosa più interessante, cioè come lavorano queste grandi società. Monetizzano i dati che gli utenti producono e trasmettono, e li monetizzano in una maniera che ha a che fare soprattutto con quello che l’algoritmo capisce che la persona vuole. Cioè, mettiamola così, i grandi social network consentono a ciascuno di noi di narrare il sé che pensa di essere. Io posso narrare me stesso con una serie di foto da Pio Francescano, poi l’algoritmo mi propone contenuti che lui sa che a me interessano, che non è detto che siano coerenti con il sé che io narro. Una serie di studi, alcuni anche controversi, suggerisce che questo produca o favorisca una certa polarizzazione dell’opinione pubblica. Ora, al di là di entrare nella technicality degli studi e di come i dati possono o meno essere ritenuti affidabili, quello che è vero è che assistiamo a una cosa, cioè queste piattaforme prendono delle relazioni sociali, monetizzano parte di queste relazioni sociali, scaricano come esternalità nella società un qualcosa che consuma quella che è la società civile.

Pensate a quello che è successo con i Novax, cioè quello che la piattaforma ha monetizzato mettendo insieme e distribuendo contenuti di questo tipo, lo abbiamo pagato come collettività in spese per far vaccinare tutti e per mettere il paese in sicurezza. Allora è chiaro che qui c’è una diseguaglianza, qualcuno monetizza, la collettività paga dei costi.

Riusciremo a mettere il watermark nelle grandi aziende internazionali? Ecco, qui ci sono due problemi. Uno, l’internazionalità. Per cui noi abbiamo visto per esempio con le chat criptate come potrebbero essere Telegram, che basta spostare la sede in un paese al di fuori della EU con altre regole che già la capacità del diritto di operare diventa meno efficace. malevolo non possa essere aggirata, cioè i falsari purtroppo esistono anche all’interno della moneta comunque. E questo accade con una velocità che è impressionante. E allora se non possiamo magari garantire che ciò che è generato artificialmente possa essere al 100% con un watermark riconoscibile, potremmo però chiedere che chi lo distribuisce debba rispondere in tempi certi e veloci a un’autorità che gli chiede la rimozione di alcuni contenuti.

E non come atto di auto regolamentazione etica, ma anche come dovere rispetto a quello che è l’effetto sul pubblico. Ecco, questa seconda parte andrebbe un po’ studiata meglio, perché in questo momento c’è un po’ di grigio, e soprattutto nei mezzi che la renderebbero attuabile. Perché oggi non è detto che tutte le piattaforme alla stessa velocità rimuovono tipi di contenuti differenti. Ma, ripeto il problema non è solo loro, è proprio un problema di sistema che deve ricapirsi in maniera diversa alla luce delle innovazioni tecnologiche”.

Qui trovate l’udienza completa di Padre Benati: https://www.youtube.com/watch?v=ex5TvdhogPI

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime notizie su www.presskit.it

Può interessarti anche: Le smart Tv raccolgono sempre più dati

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su Sfero: https://sfero.me/users/presskit-quotidiano-on-line

Seguici su Telegram https://t.me/presskit

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Social Media Auto Publish Powered By : XYZScripts.com