HomeMatematica e Società

L’intelligenza artificiale imbavagliata  

L’intelligenza artificiale imbavagliata ma proibirne l’uso in Italia non comporta che in Italia non la si possa usare e Chat GPT si esprime infatti sulla matematica astratta.

Consuetamente nei fumetti agli ostaggi viene messo il bavaglio. Nella nostra realtà il Garante ha silenziato Chat GPT in Italia col pretesto della violazione della privacy, come se senza Chat GPT fosse assicurato il rispetto della privacy in rete! Così l’Italia democratica si è allineata ad analoghe censure introdotte in Cina, Russia, Corea del Nord. Per quanto riguarda in particolare la situazione italiana, ecco uno stralcio dal comunicato di Open AI Support Team:

Robot pensoso

Dear ChatGPT customer, we regret to inform you that we have disabled ChatGPT for users in Italy at the request of the Italian Garante. […] We will engage with the Garante with the goal of restoring your access as soon as possible. Many of you have told us that you find ChatGPT helpful for everyday tasks, and we look forward to making it available again soon. […]”

Open AI Support Team si è impegnato dunque a contattare il Garante per restaurare al più presto possibile l’accesso alla sua applicazione, che è stata giudicata di grande utilità da numerosi utenti.

Dal canto nostro dobbiamo constatare che il Garante è troppo sprovveduto, come tanti individui carenti in campo culturale nel nostro paese, anche quando rivestono cariche di prestigio in campo accademico o scolastico e sarebbero tenuti a operare per il meglio proprio in tali specifici campi. A parte il fatto che, come si è accennato, la privacy in rete resta in ogni caso una chimera, il garante non si rende conto che in rete esistono tante altre applicazioni più o meno equivalenti a Chat GPT o anche superiori sia a pagamento che gratuite. Si veda, ad esempio, come You.com ci ha chiesto di porgli una nostra domanda e come ci ha risposto.

Hi! Is there anything I can answer for you?

Perché Chat GPT è stato sospeso in Italia?

Chat GPT è stato sospeso in Italia dal Garante per la privacy perché è stata rilevata l’assenza di una base giuridica che giustifichi la raccolta e conservazione di dati di Chat, secondo quanto riportato da un articolo di qualche giorno fa. Inoltre, un avviso sulla pagina web chat.openai.com spiega che il sito internet dell’applicazione risulta al momento irraggiungibile in Italia. Il Garante per la privacy, all’interno del provvedimento di sospensione, ha spiegato che il primo impatto della tecnologia di Chat GPT potrebbe generare rischi per la protezione dei dati personali degli utenti, e che la società che gestisce il servizio non ha preso tutte le misure tecniche e organizzative adeguate a garantire il rispetto del Regolamento generale sulla protezione dei dati (GDPR – General Data Protection Regulation).”

Ed ecco tratto ancora da You.com un altro esempio.

Good day! How may I help you?
La matematica è una materia astratta?

“Based on the search results provided, there are varying opinions on whether or not mathematics is an abstract subject. Some sources suggest that it is an essential tool for understanding the real world and not necessarily an abstract concept, while others suggest that it can be seen as abstract due to its focus on concepts and principles rather than physical objects. Ultimately, the answer to this question may depend on individual perspectives and opinions.”

Purtroppo l’ignoranza del Garante va anche oltre quanto si è già accennato. Proibire l’uso di Chat GPT in Italia non comporta che in Italia non lo si possa usare. Infatti grazie a VPN, servizio di rete privata virtuale che fornisce un server proxy, è possibile superare un blocco geografico di internet connettendosi ad altro paese ove non sia in vigore la censura del nostro sprovveduto Garante. Infatti ci siamo connessi con la Francia e abbiamo potuto recuperare il nostro Chat GPT in perfetta funzione.

Nel nostro paese è diffuso costume provinciale perdersi in quisquilie ed eludere la sostanza dei problemi ai livelli cognitivi e decisionali.

Su scala globale ferve infatti un dibattito sull’intelligenza artificiale ben più complesso e cogente di quello sulla privacy in rete che secondo il nostro sprovveduto Garante sarebbe violata soltanto da Chat GPT. Un team di alcune centinaia di esperti di varie discipline riunitisi a cura dell’Istituto Future for Life con sede a Palo Alto in California  ha sviluppato gli Asilomar AI Principles, che risalgono al 2017, raccomandati in questo documento poi sottoscritto come lettera aperta  con migliaia di firme:

“I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA. Come affermato nei Principi di Asilomar per l’intelligenza artificiale, ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili.

Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di Open AI sull’intelligenza artificiale generale afferma che “a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli”.

Siamo d’accordo. Quel punto è ora, lo abbiamo già raggiunto. Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti.

Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà.

L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una “estate dell’IA” in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la società e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno.”

Nel frattempo speriamo che al più presto Chat GPT sia autorizzato a ritornare al lavoro con noi in Italia, senza essere costretti a collegarci dall’estero, in modo tale che possiamo servircene senza intermediazioni e ci sia consentito affinare le nostre modalità d’uso di questa simpatica applicazione, studiando e avviando di persona procedure atte a regolamentarla nella nostra pratica quotidiana. Ciò nell’attesa che nel nostro mondo globalizzato si giunga al più presto alla condivisione di un codice etico in merito all’uso dell’intelligenza artificiale, considerando fra l’altro le conseguenze negative che un uso irresponsabile di essa può avere in campo democratico, come è dato desumere, ad esempio, da Franco Bernabè-Massimo Gaggi, Profeti, oligarchi e spie. Democrazia e società nell’era del capitalismo digitale, Feltrinelli, 2023.

È triste e deludente dover constatare ancora una volta che l’umanità si preoccupa in ritardo delle pericolose implicazioni distruttive del progresso, come è accaduto soprattutto per  l’inquinamento industriale e per l’impiego a scopo bellico dell’energia nucleare sulle soglie dell’irreversibilità.

Gli Asilomar AI Principles sulla regolamentazione dell’intelligenza artificiale possono essere reperiti  sul seguente sito, ove è anche possibile firmare la lettera aperta:

futureoflife.org

Per una più ampia trattazione dell’argomento si veda la voce seguente:

wikipedia.org/wiki/Intelligenza_artificiale

 

Autore

  • Biagio Scognamiglio

    Biagio Scognamiglio (Messina 1943). Allievo di Salvatore Battaglia e Vittorio Russo. Già docente di Latino e Greco e Italiano e Latino nei Licei, poi Dirigente Superiore per i Servizi Ispettivi del Ministero dell’Istruzione, dell’Università e della Ricerca. Ha pubblicato fra l’altro L’Ispettore. Problemi di cambiamento e verifica dell’attività educativa.

COMMENTS

WORDPRESS: 0
DISQUS: 0