<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>creativa Archivi - Italia nel futuro</title>
	<atom:link href="https://italianelfuturo.com/tag/creativa/feed/" rel="self" type="application/rss+xml" />
	<link>https://italianelfuturo.com/tag/creativa/</link>
	<description>Innovare oggi, per costruire il domani</description>
	<lastBuildDate>Fri, 15 May 2026 15:19:39 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://italianelfuturo.com/wp-content/uploads/2024/12/cropped-favicon-32x32.jpg</url>
	<title>creativa Archivi - Italia nel futuro</title>
	<link>https://italianelfuturo.com/tag/creativa/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Il lavoro e la creatività nell’era dell’intelligenza artificiale </title>
		<link>https://italianelfuturo.com/il-lavoro-e-la-creativita-nellera-dellintelligenza-artificiale/</link>
		
		<dc:creator><![CDATA[Franco Bernabè]]></dc:creator>
		<pubDate>Thu, 14 May 2026 15:14:00 +0000</pubDate>
				<category><![CDATA[Intelligenza artificiale]]></category>
		<category><![CDATA[Automazione]]></category>
		<category><![CDATA[ChatGpt]]></category>
		<category><![CDATA[creativa]]></category>
		<category><![CDATA[Lavoro]]></category>
		<category><![CDATA[occupazione]]></category>
		<guid isPermaLink="false">https://italianelfuturo.com/?p=57060</guid>

					<description><![CDATA[<p><enclosure url="https://italianelfuturo.com/wp-content/uploads/2026/05/lavoro-creativita-intelligenza-artificiale-2026.webp" type="image/jpeg" />C’è una domanda importante al centro del dibattito economico e sociale di questi anni: l’intelligenza artificiale sta distruggendo il lavoro, o lo sta trasformando? La risposta, come vedremo, è più articolata di quanto il dibattito pubblico fatto di opinioni contrapposte possa far credere e dipende da una molteplicità di fattori. Per rispondere partirò da un [&#8230;]</p>
<p>L'articolo <a href="https://italianelfuturo.com/il-lavoro-e-la-creativita-nellera-dellintelligenza-artificiale/">Il lavoro e la creatività nell’era dell’intelligenza artificiale </a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></description>
										<content:encoded><![CDATA[<enclosure url="https://italianelfuturo.com/wp-content/uploads/2026/05/lavoro-creativita-intelligenza-artificiale-2026.webp" type="image/jpeg" />
<p>C’è una domanda importante al centro del dibattito economico e sociale di questi anni: l’intelligenza artificiale sta distruggendo il lavoro, o lo sta trasformando? La risposta, come vedremo, è più articolata di quanto il dibattito pubblico fatto di opinioni contrapposte possa far credere e dipende da una molteplicità di fattori.</p>



<p>Per rispondere partirò da un reportage di <strong>Josh Dzieza</strong> pubblicato su <strong>New York Magazine</strong> e <strong>The Verge</strong> nel 2023, intitolato “<em>AI Is a Lot of Work</em>”. <strong>Dzieza</strong> fa una cosa che i rapporti accademici raramente fanno: entra nella fabbrica dell’intelligenza artificiale. E ciò che trova dentro quella fabbrica cambia radicalmente il modo in cui dobbiamo leggere tutti gli altri dati</p>



<p>Prima di parlare di impatto dell’AI sul lavoro, dobbiamo capire come nasce un modello di intelligenza artificiale. Perché c’è un paradosso al cuore di questa tecnologia che viene sistematicamente ignorato nel dibattito pubblico.</p>



<p>I sistemi di AI imparano riconoscendo pattern in quantità enormi di dati. Ma quei dati, prima di essere utilizzati, devono essere etichettati, classificati e valutati da esseri umani. La svolta storica è avvenuta nel 2007, quando la ricercatrice <strong>Fei-Fei Li</strong> capì che la chiave per migliorare il riconoscimento delle immagini era addestrare i modelli su milioni di immagini etichettate. Per svolgere quel lavoro utilizzò una applicazione di <strong>Amazon Web Services</strong>: <strong>Mechanical Turk</strong> &#8211; la piattaforma di <em>crowdsourcing</em> dove chiunque nel mondo può completare micro-task per pochi centesimi. E’ curioso ricordare che il turco meccanico originale era una messa in scena brillante creata da un ungherese per impressionare <strong>Maria Teresa d’Austria</strong>. il turco meccanico di allora vinceva a scacchi contro i più bravi campioni perché era in realtà guidato da un esperto giocatore. Il dataset creato da <strong>Fei Fei Li</strong> , chiamato <strong>ImageNet</strong>, ha innescato un decennio di progressi nel <em>machine learning</em>. Da allora, il lavoro di annotazione si è moltiplicato. Dietro ogni sistema AI, dai <em>chatbot</em> come <strong>ChatGPT</strong> alle auto a guida autonoma, esiste una catena di produzione umana vastissima ma nascosta: milioni di lavoratori, per lo più nei paesi in via di sviluppo, che etichettano dati, correggono errori, valutano risposte e insegnano ai modelli a comportarsi in modo accettabile. <strong>Dzieza</strong> li chiama <em>“taskers</em>”. Non dipendenti nel senso pieno del termine: qualcosa di nuovo. Un sottoproletariato digitale del lavoro a cottimo, sparso tra Kenya, Nepal, India, Filippine e &#8211; a tariffe più alte &#8211; negli Stati Uniti. Le loro storie raccontate da <strong>Dzieza</strong> aprono uno squarcio sull’altra faccia della rivoluzione tecnologica portata dall’intelligenza artificiale, una faccia che assomiglia molto al lavoro a cottimo di un capitalismo primordiale. Joe si è laureato a Nairobi e ha trovato lavoro etichettando fotogrammi per auto a guida autonoma: identificare ogni veicolo, ogni pedone, ogni ciclista, da ogni angolazione possibile. Un video di pochi secondi richiedeva otto ore di lavoro, per le quali veniva pagato circa dieci dollari. Poi ha scoperto che poteva guadagnare quattro volte tanto gestendo un boot camp di formazione per nuovi annotatori. Ogni due settimane, cinquanta nuove persone entravano in un edificio di Nairobi per imparare il mestiere: classificare abbigliamento in selfie, identificare stanze per robot aspirapolvere, disegnare riquadri attorno a scansioni lidar di motociclette. Più della metà abbandonava prima di finire. Ma era comunque un lavoro, in un luogo dove i lavori erano scarsi. Victor invece si era iscritto all’università a Nairobi quando ha iniziato ad annotare. Era un “fanatico” dell’AI: credeva di stare contribuendo a costruire un futuro automatizzato migliore per tutti. Si svegliava ogni tre ore di notte per controllare la coda dei task, perché i progetti apparivano spesso nel cuore della notte. Una volta è rimasto sveglio 36 ore di fila etichettando gomiti, ginocchia e teste in fotografie di folla. Non aveva idea del perché. Anna, in Texas, aveva trovato lavoro su una piattaforma generica e si era ritrovata in compagnia di 1.500 persone che addestravano un chatbot di <strong>Google DeepMind</strong>. Il suo lavoro era conversare con il bot&nbsp; per&nbsp; tutto il giorno, ricevere due risposte per ogni interazione e scegliere la migliore. Tredici dollari l’ora, più i bonus. Teneva un taccuino con argomenti da usare quando esauriva le idee.&nbsp;</p>



<p>Queste persone lavoravano per <strong>Scale AI</strong>, una società valutata 7,3 miliardi di dollari nel 2021, fondata da un diciannovenne di <strong>Silicon Valley</strong>, che conta <strong>OpenAI</strong> e il <strong>Dipartimento della Difesa USA</strong> tra i suoi clienti. La maggior parte dei lavoratori non sapeva per chi veramente lavorava. La piattaforma per lavoratori si chiamava <strong>Remotasks</strong>, e da nessuna parte si menzionava <strong>Scale AI</strong>.</p>



<p>L’antropologo <strong>David Graeber</strong> ha coniato il concetto di “<em>bullshit jobs</em>”: lavori privi di senso che potrebbero essere automatizzati, ma non lo sono per inerzia burocratica. I lavori di annotazione AI sono il loro esatto contrario: lavori noiosi e ripetitivi ma che non possono essere automatizzati perché la macchina ha assoluto bisogno dell’uomo.</p>



<p>Ma il paradosso va ancora più in profondità, ed è tecnico prima che etico. I chatbot più avanzati, <strong>ChatGPT</strong>, <strong>Gemini</strong>, e altri devono la loro capacità di sembrare umani a una tecnica chiamata <strong>Reinforcement Learning </strong>from <strong>Human Feedback</strong>, <strong>RLHF</strong>. Funziona così: un primo gruppo di annotatori scrive esempi di come gli ingegneri vogliono che il bot si comporti. Il modello viene addestrato su questi esempi. Poi un secondo gruppo interagisce con il bot tutto il giorno, riceve due risposte alternative e sceglie la migliore, creando dati sulle preferenze umane.</p>



<p>Infine, un secondo modello viene addestrato a imitare quelle preferenze su scala industriale, guidando ulteriormente il modello principale. E qui sta il punto critico: quando gli annotatori insegnano a un modello a essere “accurato”, il modello non impara a verificare le affermazioni in termini logici. Rimane una macchina di previsione del testo. Apprende a imitare lo stile sicuro e il gergo esperto dei testi accurati, ma può produrre testi che hanno quella forma pur essendo completamente falsi. È esattamente il meccanismo che genera le allucinazioni di cui abbiamo tanto sentito parlare in questi anni. ( anche su questo punto vale la pena di spiegare come sono costruiti i modelli a partire dall’ architettura <strong>Trasformer</strong>. Dunque: una quantità enorme di lavoro umano, spesso precario, mal pagato e invisibile, produce i modelli di AI. Quei modelli vengono poi immessi nel mercato del lavoro globale. La domanda è: cosa fanno quei modelli al lavoro degli esseri umani?</p>



<p>La preoccupazione di molti è che i modelli sottraggano il lavoro proprio alle attività svolte dai colletti bianchi che erano stati protetti dalla automazione che invece aveva duramente colpito i colletti blu, gli operai delle linee di montaggio. In realtà il mercato del lavoro non si sta semplicemente contraendo: si sta ristrutturando. L’AI non sta semplicemente distruggendo occupazione. Sta ristrutturando profondamente quali compiti vengono svolti dagli esseri umani. Produce guadagni di produttività misurabili, sposta l’occupazione <em>entry-level</em> più che quella senior, e ha un impatto ambivalente sulla creatività: la amplifica per i lavoratori già dotati di capacità metacognitive, la appiattisce per chi si affida passivamente agli strumenti generativi.</p>



<p>Il <strong>PwC 2025 Global AI Jobs Barometer</strong>, basato su quasi un miliardo di annunci di lavoro in sei continenti, mostra che i settori più esposti all’AI &#8211; i servizi finanziari e il software &#8211; hanno visto la crescita della produttività quasi quadruplicare: dal 7% al 27% in sei anni. Il ricavo per dipendente cresce a un ritmo tre volte superiore rispetto ai settori meno esposti. Le posizioni routinarie si sono ridotte del 13% dopo il lancio dei primi modelli generativi. Ma la domanda per ruoli di analisi, tecnologia avanzata e lavoro creativo è cresciuta del 20% nello stesso periodo.</p>



<p>Nella sanità, l’AI raggiunge un’accuratezza dell’85% in casi complessi di diagnosi per immagini, quattro volte superiore ai gruppi di medici esperti in contesti controllati. Per fare un esempio, rileva il 64% delle lesioni cerebrali da epilessia mancate dai radiologi. Riduce il carico amministrativo dei medici.</p>



<p>Nel diritto, il 77% dei professionisti legali che usano AI la impiegano per la revisione documentale: compiti che prima richiedevano settimane possono essere svolti in ore. Ma &#8211; come ricorda l’<strong>International Bar Association </strong>&#8211; quei compiti erano tradizionalmente la “palestra” dei giovani avvocati. Con l’AI che li esegue, si apre un problema serio di formazione professionale che non ha ancora risposta consolidata.</p>



<p>Nello sviluppo software, strumenti come <strong>GitHub Copilot</strong> permettono di scrivere codice con una velocità aumentata del 55% e riducono i tempi di individuazione dei bug del 30%. I developer non spariscono: si spostano dalla codifica routinaria verso architettura, problem-solving complesso e validazione della qualità. Lo studio “<strong>Canaries in the Coal Mine</strong>” del <strong>Digital Economy Lab di Stanford</strong> &#8211; firmato da <strong>Erik Brynjolfsson</strong> e colleghi nel 2026 &#8211; ha analizzato i dati di ADP, il più grande fornitore di software per buste paga degli Stati Uniti. Il risultato è che i lavoratori di età compresa tra 22 e 25 anni nelle occupazioni più esposte all’AI hanno subito un declino occupazionale relativo del 16% dopo la diffusione dell’AI generativa. I colleghi più esperti nelle stesse occupazioni sono rimasti stabili o sono cresciuti. Il meccanismo è esattamente quello che descriveva <strong>Dzieza</strong> per l’annotazione: l’AI aumenta la “leva” dei lavoratori senior, ampliando il loro <em>span of control</em> effettivo e riducendo il bisogno di assumere personale junior. Le “scale” tradizionali delle carriere &#8211; dove i giovani imparano facendo i compiti più semplici prima di accedere ai più complessi &#8211; rischiano di collassare proprio nelle professioni del sapere.</p>



<p>Arrivo ora al tema che ritengo più ricco di implicazioni: l’impatto dell’AI sulla creatività. Un <em>field experiment</em> <strong>dell’Università di Tulane</strong> su 250 dipendenti ha prodotto risultati che sfidano sia l’ottimismo acritico sia il pessimismo difensivo. I dipendenti con accesso all’AI generativa hanno prodotto idee più originali e più utili rispetto al gruppo di controllo. Ma il beneficio non è distribuito uniformemente. I lavoratori che ne hanno tratto maggiore vantaggio erano quelli che già utilizzavano strategie metacognitive: pianificavano attivamente, riflettevano sul proprio approccio, monitoravano il processo del proprio pensiero.</p>



<p>C’è però un rischio che non riguarda i singoli lavoratori ma i sistemi nel loro complesso: il rischio di omologazione creativa. Ricerche presentate a <strong>NeurIPS 2025 </strong>hanno documentato che i modelli AI producono sistematicamente meno varietà di pensiero rispetto agli esseri umani, e che modelli diversi convergono sulle stesse soluzioni. Se tutti usiamo gli stessi strumenti, rischiamo di pensare tutti allo stesso modo. È una conseguenza diretta di ciò che <strong>Dzieza</strong> descriveva: quando milioni di annotatori in tutto il mondo addestrano gli stessi modelli sugli stessi criteri, il prodotto finale porta le tracce di quella uniformità.</p>



<p>Per chi studia all’università è importante capire come usare proficuamente l’Intelligenza Artificiale in modo da affrontare i mutamenti in corso nel mercato del lavoro con il bagaglio di strumenti più adatto. Gli studi recenti mostrano che l’IA è ormai entrata in modo capillare nello studio universitario, ma il suo impatto sull’apprendimento dipende quasi interamente da come viene usata. Quasi tutti gli studenti di istruzione terziaria dichiarano di usare l’IA generativa in qualche forma, soprattutto per chiarire concetti, riassumere testi, generare idee e ottenere aiuto nella scrittura. L’uso è trasversale alle discipline, con percentuali molto alte anche in area scientifica, ingegneristica e giuridica. Per quanto riguarda l’impatto sull’apprendimento Le modalità d’uso che lo penalizzano sono quelle sostitutive e passive. Quando lo studente delega all’IA il lavoro cognitivo di base cioè far scrivere interi elaborati, risolvere esercizi senza provare, studiare solo attraverso riassunti generati, si riducono l’esercizio della memoria, dell’argomentazione e del problem solving. Alcuni studi recenti segnalano il rischio di una vera e propria “dipendenza cognitiva”: la macchina diventa il primo riflesso a cui chiedere ogni cosa, con perdita di fiducia nelle proprie capacità e impoverimento del pensiero autonomo. A questo si aggiunge l’uso non critico e il plagio, che danneggiano sia l’integrità sia la qualità della formazione. Infine, quando l’IA viene usata come surrogato del confronto con docenti e compagni, può indebolire la dimensione dialogica e sociale dell’apprendimento, che è cruciale per lo sviluppo del pensiero critico.</p>



<p>All’estremo opposto, l’IA potenzia l’apprendimento quando è integrata in modo attivo e riflessivo. Funziona bene come tutor adattivo che spiega gli stessi concetti con livelli diversi di complessità, propone esempi e contro-esempi, genera esercizi graduati con feedback immediato. Alcuni studi mostrano miglioramenti significativi delle prestazioni, soprattutto per gli studenti più fragili, quando l’IA viene usata per adattare il percorso al livello e al ritmo individuale. Un uso particolarmente virtuoso è quello “metacognitivo”: l’IA aiuta a pianificare lo studio, generare domande per auto-valutarsi, simulare un dialogo che mette alla prova le proprie tesi e spinge a chiarirle e raffinarle. Anche nella scrittura, gli esiti migliori si vedono quando lo studente scrive, fa commentare il testo al sistema e poi riscrive, anziché far generare il testo dall’IA e limitarsi a ritoccarlo.</p>



<p>Dalle ricerche emergono dunque alcune linee di fondo. L’IA tende ad amplificare trend già presenti. Chi studia in modo attivo la usa per approfondire, chi cerca scorciatoie la usa per aggirare lo sforzo, con effetti opposti sulla crescita cognitiva. Il fattore decisivo è chi controlla il processo mentale. Se lo guida lo studente, l’IA arricchisce repertorio e metacognizione, se lo guida la macchina, l’apprendimento si appiattisce. Il nodo non è solo tecnologico, ma pedagogico e regolatorio. Lì dove si definiscono patti chiari su cosa è lecito e su come usare l’IA per imparare (e non solo per produrre compiti), l’impatto tende a essere positivo; dove l’IA viene ignorata proliferano usi nascosti, prevalentemente strumentali e di bassa qualità educativa.</p>



<p>L’AI non è una tecnologia che cade dal cielo. È il prodotto di un’enorme quantità di lavoro umano &#8211; spesso precario, invisibile, mal retribuito &#8211; svolto da milioni di persone in Kenya, in Nepal, in Filippine, in Texas. Quel lavoro costruisce i modelli. I modelli vengono poi immessi nel mercato globale e producono effetti profondi sull’occupazione: guadagni di produttività reali nei settori più esposti, spostamento dei compiti routinari verso l’alto della catena del valore, declino relativo dell’occupazione entry-level nelle professioni del sapere, polarizzazione crescente tra chi possiede <strong>AI literacy</strong> e chi no.</p>



<p>L’AI non livella le competenze umane, le amplifica in modo differenziale. Chi possiede capacità di giudizio, pensiero critico, competenze metacognitive e interpersonali consolidate usa l’AI per moltiplicare il proprio output. Chi ne è privo e si affida completamente alla macchina perde ogni capacità di giudizio autonomo. La sfida non è decidere se adottare o resistere all’AI: quella scelta è già fatta dalla storia. La sfida è costruire le condizioni perché questa trasformazione non produca una polarizzazione crescente, ma diventi davvero uno strumento di progresso condiviso.</p>
<p>L'articolo <a href="https://italianelfuturo.com/il-lavoro-e-la-creativita-nellera-dellintelligenza-artificiale/">Il lavoro e la creatività nell’era dell’intelligenza artificiale </a> proviene da <a href="https://italianelfuturo.com">Italia nel futuro</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
