sabato 1 aprile 2023

LA LETTERA DI ELON MUSK PER FERMARE L’INTELLIGENZA ARTIFICIALE

 https://www.nogeoingegneria.com/

Elon Musk, il cofondatore di Apple e molti esperti informatici tra cui i professori di AI Yoshua Bengio e Stuart Russel altro hanno firmato  una lettera pubblicata dal Future of Life Institute per fermare l’avanzata dell’Intelligenza Artificiale, arrivata a spaventare anche l’opinione pubblica con chatGPT, software di cui si è impadronita spendendo 10 miliardi la Microsoft di Bill Gates.

Come riportato da Renovatio 21, il software è arrivato a minacciare gli utenti, fare proclami stralunati, perfino dichiarare di voler sterminare gli esseri umani, e creare codice per prendere il controllo del computer dei suoi interlocutori.

L’appello di Musk e compagni (tra i quali, purtroppo, vediamo anche Yuval Harari) è paragonabile a quelli che decenni fa si sono visti per lo sviluppo delle armi atomiche, e – aggiungiamo noi – che non si sono visti per le armi biologiche e le ricerche Gain of Function: il risultato del genio scappato dalla lampada lì è stato, con estrema probabilità, la catastrofe della pandemia COVID-19.

Gli effetti della fuga del genio AI dalla lampada, strofinata a dovere da oligarchi senza scrupoli e senza amore per il genere umano, non riusciamo ancora ad immaginarceli.

Tuttavia Elon Musk, oramai quasi una decina di anni fa, ci aveva messo in guardia: sarà «come evocare un demone».

È il momento di avere paura.  È il momento di agire – è il momento che se ne occupi la politica, che in Italia invece che vedere il precipizio davanti alla popolazione, come sempre, si occupa di quisquilie e problemucci partitici, sempre obbediente ai suoi capi di Bruxelles, Francoforte, Washington, e quindi incapace di difenderci davvero.

La minaccia è reale, e Renovatio 21 ve lo ripete da anni.

Sotto la traduzione integrale della lettera.

«Mettete in pausa gli esperimenti di Intelligenza Artificiale gigante: una lettera aperta»

Chiediamo a tutti i laboratori di Intelligenza Artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4.

I sistemi di Intelligenza Artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite (1) e riconosciuto dai migliori laboratori di Intelligenza Artificiale. (1)

Come affermato nei Principi Asilomar AI ampiamente approvati , l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.

Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di Intelligenza Artificiale sono stati incastrati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di Intelligenza Artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, (3) e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità?

Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?

Dovremmo  sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? 

Dovremmo rischiare di perdere il controllo della nostra civiltà?

Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di Intelligenza Artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’Intelligenza Artificiale generale afferma che «ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli». Siamo d’accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di Intelligenza Artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di Intelligenza Artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di Intelligenza Artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. (4) 

Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

La ricerca e lo sviluppo dell’IA dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di Intelligenza Artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA.

Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e tracciamento di sistemi di Intelligenza Artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’IA causerà.

L’umanità può godere di un futuro fiorente con l’IA. Dopo essere riusciti a creare potenti sistemi di Intelligenza Artificiale, ora possiamo goderci un’ «estate di Intelligenza Artificiale» in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. (5)

Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati nell’autunno.

NOTE

1) Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big??. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

2) Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

3) Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

4) Esiste un ampio precedente legale: ad esempio, i principi IA dell’OCSE ampiamente adottati richiedono che i sistemi IA «funzionino in modo appropriato e non comportino un rischio irragionevole per la sicurezza».

5) Gli esempi includono la clonazione umana, la modifica della linea germinale umana, la ricerca sul guadagno di funzione e l’eugenetica.

FONTE https://www.renovatio21.com/la-lettera-di-elon-musk-per-fermare-lintelligenza-artificiale/

NEWS ChatGpt: OpenAi sospende il servizio in Italia

La decisione dopo lo stop del Garante della privacy https://www.lastampa.it/cronaca/2023/04/01/news/chatgpt_openai_sospende_servizio_italia-12731698/?ref=ST-LA-2

Nessun commento:

Posta un commento