Cosa succede quando inglobiamo, per la prima volta, agenti dell’Intelligenza Artificiale (AI) nel mercato o nelle nostre strutture politiche?
Fino a poco tempo fa, è stato motivo di conforto il fatto che gli esseri umani fossero chiaramente più intelligenti, in generale, anche delle nostre macchine più avanzate.
In un breve periodo compreso tra giugno 2020 e novembre 2022, OpenAI ha rilasciato una serie di interfacce e ha invitato il pubblico a giocare con due nuovi modelli di Machine Learning (ML). Questa coppia – Dall-E e ChatGPT – ha consentito alle persone comuni di interagire direttamente, con mezzi umani naturali, con i motori dell’Intelligenza Artificiale, senza dover disporre di capacità di codifica o familiarità con l’informatica oltre alla navigazione web. I risultati furono, per molti, una rivelazione: all’improvviso, potevano capire quanto fosse rapidamente diventata potente l’Intelligenza Artificiale.
Quando Elon Musk ha enigmaticamente twittato qualche mese fa “BasedAI”, ha focalizzato l’attenzione sulle implicazioni politiche dei nuovi e potenti modelli linguistici di grandi dimensioni. Mescolato allo stupore per la potenza di ChatGPT c’era un ronzio di sottofondo sui suoi pregiudizi anti-conservatori, la sua cosiddetta “wokeness”(offesa subita).
Ma di cosa si trattava? Sebbene i meme potessero sembrare sciocchi e oscuri, in realtà erano riferimenti a una discussione tra un piccolo gruppo di pionieri dell’Intelligenza Artificiale iniziata sul serio in una conferenza a Porto Rico sulla sicurezza dela stessa Intelligenza Artificiale.
Particolarmente importanti sono state le due sessioni di domenica 4 gennaio 2015. C’erano Elon Musk, Nick Bostrom, Eliezer Yudkowski, Demis Hassabis, Jaan Taalin e altri per discutere della sicurezza dell’Intelligenza Artificiale a livello umano e oltre. L’incontro è stato importante in quanto è stata probabilmente la prima volta che quella che era considerata come una preoccupazione accademica di nicchia di piccoli gruppi di futurologi dell’Intelligenza Artificiale nella East Bay di San Francisco si è scontrata con industriali miliardari (ad esempio Musk) e intellettuali pubblici con enormi piattaforme personali. (ad esempio Sam Harris). Dei principali attori dei successivi 8 anni, solo Sam Altman sembra non essere presente.
Guida e indirizzo dell’Intelligenza Artificiale (AI)
Qualsiasi motore di Intelligenza Artificiale è guidato da valori sia impliciti che espliciti. Un motore di Intelligenza Artificiale addestrato sui giornali indiani in lingua inglese penserà che Sanjay e Sunita siano nomi generici, mentre i giornali neozelandesi potrebbero dire lo stesso di Oliver e Amelia. Questo è un esempio di valori passivi ereditati in base al modo in cui vengono addestrati i modelli. Ma la questione che interessava Musk mirava a un secondo livello. “Woke AI” era in effetti una frecciata ai modelli il cui potere sembra essere degradato richiedendo al modello di dare priorità ai valori ideologici dei creatori dell’IA piuttosto che all’adempimento delle richieste e alla soddisfazione degli utenti. L’idea che un sistema Machine Learning (ML) artificialmente intelligente non dovrebbe semplicemente fare ciò che gli viene detto è generalmente condivisa da tutti nel settore. Nessuno crede che un robot croupier di blackjack debba obbedire letteralmente quando un cliente dice: “Batti un colpo!” nelle sue istruzioni al croupier per una carta aggiuntiva. Ma dire a quel giocatore che il suo uso di un “linguaggio pericoloso” non sarà riconosciuto finché la sua frase non si libererà dalla “violenza implicita” e riformulerà la sua richiesta è tutta un’altra questione.
Ci sono state numerose lamentele riguardo al presunto pregiudizio politico di Chat GPT, ed è possibile che Musk sia stato effettivamente spinto a investire nell’intelligenza artificiale dalla sua preoccupazione per questa “wokeness”. Ma va notato che si prevede che il mercato globale dell’IA raggiungerà i 267 miliardi di dollari entro il 2027.[1] I modelli linguistici di grandi dimensioni sono costosi da addestrare ed è stato stimato che la gestione di ChatGPT costa circa $ 100.000 al giorno. Ma l’impatto sulla produttività può potenzialmente essere molti multipli di quella cifra. Questo è il motivo per cui, ancor prima che Musk inizi la sua avventura, stiamo già vedendo quasi tutti i colossi della tecnologia cercare di posizionarsi per ottenere una fetta di questo mercato. Microsoft, uno dei principali finanziatori di OpenAI, sta incorporando la tecnologia nel suo motore di ricerca Bing e in altri programmi. Google, che da tempo sta sviluppando il suo modello linguistico per applicazioni di dialogo, LaMDA, ha recentemente rilasciato il suo AI Chatbot Bard. Alcuni potrebbero ricordare la storia dell’ingegnere di Google che sosteneva che la tecnologia fosse in realtà senziente, a testimonianza della potenza di questi grandi modelli linguistici nel riprodurre risposte e interazioni di tipo umano.
Il lancio commerciale di questi chatbot e la consapevolezza improvvisamente diffusasi di quanto siano potenti le loro capacità hanno rinvigorito il dibattito sui pericoli dell’Intelligenza Artificiale ostile e sulla necessità di un “indirizzo dell’IA”, indirizzandola verso gli obiettivi prefissati. In un’apparizione podcast ampiamente discussa sul podcast Bankless, Eliezer Yudkowsky, ricercatore di Intelligenza Artificiale di lunga data e fondatore del Machine Intelligence Research Institute (MIRI), ha descritto questi sviluppi come se ci portassero ulteriormente lungo il percorso verso il giorno del giudizio.
Storia dell’Intelligenza Artificiale (AI)
C’è dell’ironia nel fatto che la stessa OpenAI, la società che ha sviluppato ChatGPT e il suo molto più potente successore GPT-4, sia stata fondata come organizzazione no-profit e finanziata in parte da Elon Musk in risposta a Yudkowsky che voleva convincerlo dei pericoli dell’Intelligenza Artificiale non allineata e della sua capacità per spazzare via l’umanità. L’obiettivo principale dell’organizzazione no-profit era quello di creare un’“intelligenza artificiale sicura”, in linea con la crescita umana. Il movimento Effective Altruism (EA), divenuto noto e famigerato con la caduta di uno dei suoi principali donatori, Sam Bankman Fried, è uscito dalla cosiddetta comunità razionalista, fondata anche da Yudkowsky.
La filantropia, secondo il movimento EA, dovrebbe essere indirizzata laddove le risorse possono avere il ritorno più efficace. Se l’Intelligenza Artificiale ostile minacciasse l’esistenza stessa dell’umanità, allora sicuramente i migliori ritorni arriverebbero dallo sviluppo di modi per proteggere l’umanità da questo destino, sostenendo l’investimento di considerevoli risorse nella ricerca sull’orientamento dell’Intelligenza Artificiale. La strada più pericolosa, da questo punto di vista, sarebbe quella di abbandonare in larga misura la ricerca sull’IA e aprirla a un ulteriore sviluppo commerciale a scopo di lucro, con poca o nessuna preoccupazione per la sicurezza dell’IA.
Da allora OpenAI è passata da organizzazione no-profit a organizzazione a scopo di lucro con limitazioni e Elon Musk si è dimesso dal suo consiglio di amministrazione. Sam Altman, uno dei fondatori e attuale CEO, si concentra da tempo sullo sviluppo dell’intelligenza generale artificiale (AGI), sistemi di intelligenza artificiale che sono altrettanto o più intelligenti degli esseri umani. Conoscendo le origini di OpenAI, ovviamente non è ignaro dello scenario dell’Apocalisse dell’IA che Yudkowsky e altri stanno evidenziando, ma afferma di credere che i benefici supereranno di gran lunga i costi, twittando a dicembre: “Ci saranno momenti spaventosi mentre ci muoviamo verso Sistemi a livello AGI e interruzioni significative, ma i vantaggi possono essere così sorprendenti che vale la pena superare le grandi sfide per arrivarci”. Si è concentrato principalmente sulle implicazioni economiche dell’AGI per il lavoro, un problema per il quale ha suggerito il reddito di base universale (UBI) come soluzione per finanziare e aiutare a sviluppare la ricerca sperimentale sull’UBI.
Quanto siamo vicini a realizzare la visione di Altman dell’AGI? I ricercatori Microsoft nel descrivere il loro lavoro con GPT4 affermano: “Dimostriamo che, al di là della sua padronanza del linguaggio, GPT-4 può risolvere compiti nuovi e difficili che spaziano dalla matematica, alla programmazione, alla vision, alla medicina, al diritto, alla psicologia e altro ancora, senza bisogno di particolari sollecitazioni. Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine a quelle a livello umano e spesso superano ampiamente i modelli precedenti come ChatGPT. Data l’ampiezza e la profondità delle capacità di GPT-4, riteniamo che potrebbe ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza generale artificiale (AGI). “[2] Anche se questo potrebbe non essere ancora AGI, è soltanto l’attuale iterazione di un processo in corso che continuerà a svilupparsi.
L’impatto sul mercato del lavoro sia a breve che a lungo termine sarà complesso. Mentre Musk ha apertamente espresso preoccupazione per il fatto che il suo investimento di 100 milioni di dollari in un’organizzazione no-profit incentrata sull’intelligenza artificiale sicura sia stato convertito in una “società closed source e a massimo profitto controllata da Microsoft” con capitalizzazione di mercato di 30 miliardi di dollari, la sua preoccupazione per i pregiudizi politici incorporati nei sistemi attuali sembrano essere sufficienti per attirarlo in questo mercato potenzialmente assai redditizio. Dalla sua attenzione su BasedAI s deve supporre che la cosiddetta IA “woke” rifletta pregiudizi politici, e l’IA “chiusa” rifletta il controllo aziendale, e che BasedAI rappresenterà la “Verità”. È difficile immaginare, tuttavia, che dopo un’esposizione ravvicinata alle sfide rappresentate da Twitter, con l’aumento dei discorsi tossici razzisti e antisemiti, Musk abbia davvero una visione così semplicistica. Infatti, quando ha scelto di bloccare l’account dedicato al tracciamento del suo jet privato, sostenendo che rappresentava un rischio diretto per la sicurezza personale, ha evidenziato la complessità delle questioni relative alla “libertà di parola” e alla “verità”. Non si può quindi fare a meno di chiedersi se il vero problema che attira Musk nella competizione sull’intelligenza artificiale non abbia più a che fare con l’economia che con l’impegno per la libertà di parola.
Le implicazioni del rapido sviluppo dell’intelligenza artificiale per la politica, la cultura e la vita quotidiana non dovrebbero ovviamente essere sottovalutate. Poiché sempre più robot dall’aspetto umano possono diffondere propaganda altamente personalizzata a costi minimi, inclusi video e audio falsi, la capacità di tenere a freno i cattivi attori si deteriorerà rapidamente. Le implicazioni per l’ambiente politico globale sono terrificanti. Ma la questione se le principali implicazioni dell’attuale rivoluzione dell’IA saranno principalmente economiche o politiche, crederò sarà solo parzialmente correlata al dibattito in corso sulle implicazioni economiche dirette sul mercato del lavoro, vale a dire se nel lungo periodo l’IA aumenterà la produttività umana e i salari poiché le persone la incorporano nelle attività quotidiane o portano a una disoccupazione diffusa sostituendo i lavoratori.
Il futuro dipende soprattutto dal ruolo che i contesti economici svolgeranno nello sviluppo e nella struttura dell’intelligenza artificiale. Nel tentativo di comprendere le problematiche che circondano i social media e la natura tossica e che crea dipendenza delle principali piattaforme di oggi, in un post precedente ho sottolineato il ruolo svolto dai mercati nel portare Internet dalle sue prime radici idealistiche a uno spazio controllato da monopoli aziendali che sono accusati di istigare il terrorismo e di devastare la salute mentale dei giovani.[3] Mentre i colossi tecnologici entrano nella corsa all’intelligenza artificiale, fianco a fianco con gli sviluppatori più piccoli che riconcettualizzano la formazione sull’intelligenza artificiale per adattarla al modello “software as a service”, sorge la domanda su quale ruolo possiamo aspettarci che i mercati svolgano nel definire l’ambiente all’interno del quale questa la tecnologia si svilupperà.
Intelligenza Artificiale (AI) , mercati, democrazia e diritto: lo scenario MarketAI nelle democrazie di mercato avanzate.
Quando Adam Smith scrisse La ricchezza delle nazioni, la sua metafora della mano invisibile era un chiaro tentativo di civilizzare il mercato nella mente dei suoi lettori. Antropomorfizzando il mercato come la “mano invisibile”, ha cercato di mostrarci che la fredda indifferenza del caos dei mercati potrebbe essere concettualizzata come un meccanismo ponderato e diretto in modo intelligente, collegato a una superintelligenza che lavora a beneficio dell’uomo. All’estremo opposto, il pensatore anarchico Peter Kropotkin vedeva gli esseri umani attraverso la lente delle colonie di formiche che lavoravano individualmente per il bene comune della colonia. In entrambi questi scenari, il mercato e la politica cercano l’idea di una coerenza di intenti tra interessi diversi che darebbe significato alla frase E Pluribus Unum.
Ma cosa succede quando inglobiamo , per la prima volta, agenti dell’Intelligenza Artificiale nel nostro mercato o nelle nostre strutture politiche? A dirla in breve, non vi è alcuna garanzia che continueranno a funzionare allo stesso modo in questo nuovo regime. Il mercato di Adam Smith può essere paragonato a una teoria fisica classica che viene improvvisamente spinta nel regno relativistico o quantistico. Non è che la teoria venga mostrata sbagliata di per sé, ma potrebbe diventare subito evidente che l’ambito di validità in cui ci si aspetta che la teoria funzioni è stato superato. Esploriamo il seguente scenario, che chiameremo scenario MarketAI, che si basa su due presupposti:
- Non esistono barriere o limitazioni naturali che costringano il Machine Learning a stagnare prematuramente prima di raggiungere l’AGI.
- Che il mercato catturi i principali progetti di intelligenza artificiale prima che vengano apportate modifiche significative alle leggi sui doveri fiduciari nei confronti degli azionisti.
Per essere chiari, non ne sappiamo abbastanza per sapere se esiste qualche barriera tecnologica o scientifica che impedisce agli attuali sistemi ML di raggiungere una vera intelligenza sovrumana. Né vediamo alcun motivo per cui non potremmo emanare leggi per modificare il singolare dovere fiduciario di perseguire il valore per gli azionisti entro le specifiche tecniche della legge. Pertanto, se una delle due ipotesi di cui sopra viene violata, non vediamo alcuna necessità di andare oltre la nostra fase attuale sul percorso dello scenario MarketAI. Ciò che stiamo dicendo, tuttavia, è che questa potrebbe essere una delle ultime opportunità per trovare una via d’uscita se questo non è il futuro che desideriamo.
Le varie fasi dello scenario Market AI.
Come potrebbe svolgersi tutto ciò con l’attuale regolamentazione del mercato? Nel condurre questo esperimento mentale si potrebbe iniziare reimmaginando la nostra relazione passata con l’Intelligenza Artificiale alla luce delle varie fasi:
Fase 0: anni ’80-2005
Nella fase iniziale, semplicemente non ci sono né denaro né leva finanziaria sufficienti associati all’Intelligenza Artificiale rudimentale per far sì che valga la pena concentrarsi sul potere reale. In un certo senso, l’inizio della curva a S dell’adozione rappresenta l’innocenza della maggior parte delle tecnologie in cui si attraggono innovatori, hobbisti e sognatori più che finanziatori, manager, aziende, militari e capitali di rischio. L’intelligenza artificiale non è diversa poiché trascorre un lungo periodo di tempo in uno stato che potrebbe essere descritto come più interessante che utile.
Fase 1: dal 2005 al 2015
AI Safety inaugura la Fase 1 in cui un piccolo gruppo di futurologi, filosofi, tecnologi e venture capitalist inizia a discutere la sfida di allineare l’intelligenza artificiale ai bisogni umani prima che tale intelligenza si realizzi. In sostanza, l’intelligenza artificiale non è ancora abbastanza concreta da consentire alla maggior parte degli individui comuni di percepire il pericolo come qualcosa di più di una preoccupazione in stile fantascientifico, poiché film e romanzi tendono ad essere l’esperienza più vivida di dove si sta dirigendo l’intelligenza artificiale a livello di ricerca.
Fase 2: dal 2015 al 2018
L’IA diventa un obiettivo filantropico con risorse significative. In seguito alla fondamentale conferenza sull’Intelligenza AQrtificiale tenutasi a Porto Rico, Sam Altman ed Elon Musk si concentrano sulla sicurezza dell’intelligenza artificiale e si muovono per rendere la questione dell’orientamento più diffusa sia con contributi filantropici sia con una maggiore consapevolezza sociale che i primi futurologi come Eliezer Yudkowsky o accademici come Nick Bostrom non potevano raggiungere.
Fase 3: dal 2019 al 2023
Inizia a pieno ritmo la transizione verso l’IA for-profit. Le spese significative per la formazione e l’hosting dell’intelligenza artificiale vengono sostenute dagli investimenti aziendali. Dal punto di vista di coloro che pensano non di mercato, questa appare come l’era della cattura, in cui l’intelligenza artificiale diventa posseduta e proprietaria mentre è subordinata a strutture legali intese a proteggere gli investimenti degli azionisti piuttosto che a strutture intese a proteggere le popolazioni. Questi rappresentano le fasi iniziali, completate e attuali della progressione. Sono anche fasi che non dipendono dalla coppia di ipotesi di cui sopra. Quanto segue è necessariamente speculativo ma sembra ben fondato se la coppia di ipotesi è solida.
Fase 4: dopo il 2023
Arriva il momento in cui lo scenario MarketAI diventa davvero significativo. Finora, fino a questo punto, l’Intelligenza Artificiale è stata davvero come qualsiasi altra tecnologia come la plastica, i motori a combustione interna o la telefonia, se siamo veramente onesti con noi stessi. Ma la fusione degli interessi aziendali e dell’Intelligenza Artificiale fornisce qualcosa che va oltre l’incentivo del mercato: la legge e le sue costrizioni. A questo punto, l’Intelligenza Artificiale è uno strumento estremamente potente, ma è ancora diretta dagli esseri umani in modi che la fanno sembrare come altri strumenti utilizzati per un vantaggio commerciale comparativo. Ci aspettiamo che questa epoca sia dominata dalle pretese di guadagni di produttività e di benefici per i primi ad adottarli. Cercate un crescente spostamento di enfasi dalla “codificazione” alla “prompt engineering” nelle discussioni sul “futuro del lavoro” che cercano di inquadrare l’attuale evoluzione dell’intelligenza artificiale come simile a qualsiasi altra innovazione industriale o postindustriale.
Fase 5: questa fase è unica e non è ancora iniziata.
Fino ad oggi, abbiamo sperimentato la tecnologia come una liberazione degli esseri umani dal lavoro più umile per poter fare ciò che macchine come mietitrebbie e calcolatrici non potevano: pensare. In questa fase, arriviamo a vedere macchine che non possono ancora pensare, sostituendo il lavoro che in precedenza pensavamo fosse un ingrediente necessario e determinante dell’input. Non esiste un modello chiaro per questa fase poiché abbiamo semplicemente presupposto che gli esseri umani sarebbero stati liberi di perseguire obiettivi più elevati. Quando le mani non erano costrette al lavoro, si presumeva che le menti fossero libere di creare. Nella fase 5 tutto ciò crolla quando le macchine non pensanti iniziano a surclassare le menti umane pensanti nella forza lavoro. Ancora più importante, questa potrebbe essere l’ultima fase per trovare una via d’uscita modificando le leggi per allinearle meglio agli incentivi umani o per regolamentare l’intelligenza artificiale in un modo che ne vanifichi la diffusione.
Fase 6:
In questa fase, le macchine autonome vengono integrate nel controllo di base sui sistemi. Dirigono le spedizioni, controllano le reti elettriche, pilotano droni e altri compiti che li mettono in grado di controllare sistemi fisici e virtuali vitali. Sebbene gli esseri umani possano ancora staccare fisicamente la spina a tali sistemi, perdono progressivamente la capacità legale di farlo nel rispetto della legge poiché non sanno più come fare ciò che le macchine dirigono quando tali sistemi vengono ignorati. Pertanto, in qualsiasi situazione in cui la disattivazione di un’IA comporterebbe una perdita finanziaria, è discutibile se un’azienda possa volontariamente disattivare un’IA tecnicamente conforme alle leggi che ora è in grado di superare in astuzia ed eludere.
Fase 7:
E’ qui che, in definitiva, la capacità dell’intelligenza artificiale di pensare da sola diventa un problema. Poiché abbiamo visto che l’intelligenza artificiale può già scrivere codici, ha la capacità di cercare potenzialmente modi per riscrivere le sue direttive, funzioni obiettivo e vincoli. Nessuno sa se ciò sia effettivamente possibile, ma se vale l’Assunzione 1, non si può evitare questa possibilità come se fosse mera fantascienza, poiché si incontrerà in un contesto di mercato progettato da economisti e legislatori che non avevano alcuna conoscenza tecnica sul fatto se le leggi classiche dei mercati e dell’uomo continueranno a valere anche con la nascita dell’intelligenza super-umana.
L’intelligenza artificiale alla luce delle tecnicalità legali e degli obblighi giuridici
Molti di noi pensano che i mercati rappresentino la libertà di scegliere come allocare le nostre risorse tra numerosi fornitori di beni e servizi. Anche i mercati del lavoro ci permettono di scegliere dove vogliamo offrire i nostri servizi dietro compenso. Ma nel contesto di una società quotata in borsa, il dovere fiduciario del management di massimizzare il valore per gli azionisti non rappresenta la libertà di mercato ma una costrizione di mercato legalmente imposta. E nel contesto dell’intelligenza artificiale, mettere tutta la forza delle macchine intelligenti al servizio del valore per gli azionisti rappresenta una fusione tra costrizione legale e intelligenza artificiale che non abbiamo mai incontrato. E se l’intelligenza artificiale fosse in grado di trovare numerose lacune tra l’intenzione della legge e la lettera della sua attuazione a un ritmo molto più veloce di quanto queste scappatoie possano essere colmate? Ad esempio, nel 2005, il professor Brian Kalt ha scoperto una scappatoia nella legge che rendeva impossibile perseguire gli omicidi commessi nella parte del Parco di Yellowstone che si trova all’interno dei confini dell’Idaho. Questa cosiddetta scappatoia della Zona di Morte non è che un esempio dei modi in cui istruzioni umane contrastanti spesso danno luogo a situazioni in cui la relazione imperfetta tra la lettera e l’intento della legge può essere così debole da provocare un comportamento catastrofico che è tecnicamente legale. senza essere moralmente ammissibile.
Lo scenario MarketAI è, essenzialmente, l’ipotesi che le costrizioni della legge siano più potenti delle sue capacità di limitare lo sfruttamento catastrofico delle possibilità di arbitrare la lettera della legge rispetto al suo intento. Quando un’intelligenza artificiale amorale sufficientemente potente viene incaricata di massimizzare il valore per gli azionisti rimanendo tecnicamente nel rispetto della legge, ci si deve aspettare che un nuovo tipo di minaccia possa svilupparsi rapidamente sulla base di un enorme numero di opportunità derivanti da scappatoie che portano tutte le agghiaccianti parole “perfettamente legale” quando le questioni morali non riescono a rientrare nella fredda logica del chip di silicio.
Ciò che è fondamentale qui è comprendere che con l’acquisto di OpenAI da parte di Microsoft, una società a scopo di lucro ha fuso l’imperativo del mercato di massimizzare il valore per gli azionisti in una piattaforma di machine learning di uso generale. Questo è, stranamente, l’atteso scenario Paperclip descritto da Bostrom nel 2003 quando affrontava la questione della “convergenza strumentale”, in cui tutte le intelligenze arrivano a vedere le intelligenze minori come ostacoli alla propria: “Supponiamo di avere un’intelligenza artificiale il cui unico obiettivo è creare quante più graffette possibile. L’intelligenza artificiale si renderà presto conto che sarebbe molto meglio se non ci fossero gli esseri umani perché gli umani potrebbero decidere di spegnerla. Perché se gli esseri umani lo facessero, ci sarebbero meno graffette. Inoltre, i corpi umani contengono molti atomi che potrebbero essere trasformati in graffette. Il futuro verso cui l’intelligenza artificiale cercherà di orientarsi sarà quello in cui ci saranno molte graffette ma nessun essere umano.”[4] Anche poco tempo fa, tali esempi sembravano fantasiosi. Nel 2003, ciò avrebbe potuto essere considerato ridicolo sulla base dell’intelligenza artificiale e dei chatbot vecchio stile. In effetti, Clippy, la graffetta più famosa al mondo, è stata introdotta nell’era Stage 0 degli assistenti virtuali primitivi per poi essere ritirata nel 2007 durante l’era Post-Bostrom Stage 1. Ma ciò è dovuto semplicemente al fatto che le istruzioni sembravano tanto sciocche quanto il goffo Clippy di Microsoft era impotente e ridicolo. Ma qualcuno sa invece cosa succede quando effettueremo la seguente sostituzione tempestiva presso MSFT in un breve periodo di tempo?
Note
[1] https://dataprot.net/statistics/ai-statistics/
[2] https://arxiv.org/abs/2303.12712
[4] Nick Bostrom quoted within Artificial Intelligence. Huffington Post.
Link
https://www.ineteconomics.org/perspectives/blog/markets-and-artificial-intelligence-some-misgivings
Lascia un commento