AI generativa: come ci cambierà?

Al via il ciclo di dialoghi frutto di un progetto dell’Università degli Studi di Torino, Fondazione Circolo dei lettori e Società Italiana per l’Etica dell’Intelligenza Artificiale.

Prende il via il ciclo di incontri “AI generativa: come ci cambierà?”quattro dialoghi che si terranno al Circolo dei lettori di Torino (il 5, 18 e 31ottobre e il 16 novembre) per far luce sui meccanismi estremamente complessi scatenati dall’Intelligenza Artificiale, ormai parte della nostra vita quotidiana, e che hanno “generato” nuovi scenari nella società. Ideati dall’Università degli Studi di Torino nell’ambito del progetto di Public Engagement AI Aware, dalla Fondazione Circolo dei lettori e dalla Società Italiana per l’Etica dell’Intelligenza Artificiale, i talk, che coinvolgono i profili più variegati – giornalisti, divulgatori, curatori museali, informatici, filosofi… – vogliono provare a riflettere, senza pregiudizi né illusioni, su questo cammino ancora agli inizi a cui l’Intelligenza Artificiale, vista ora come preludio all’apocalisse, ora come panacea universale, ci pone di fronte.

La discriminazione algoritmica rappresenta una delle sfide più pressanti dell’era digitale” dichiara la prof.ssa Marinella Belluati, sociologa dei media dell’Università degli Studi di TorinoNell’aspirazione di costruire sistemi decisionali oggettivi ed efficienti attraverso l’uso di algoritmi, ci troviamo di fronte al fatto che questi strumenti possono perpetuare, e talvolta amplificare, pregiudizi e disparità esistenti nella società. È essenziale riconoscere che gli algoritmi non sono neutrali; sono il prodotto delle scelte fatte dagli esseri umani durante il processo di progettazione e addestramento. Pertanto, è fondamentale adottare una visione critica nell’implementazione e nell’uso di sistemi basati su algoritmi, assicurandosi che siano giusti, trasparenti e liberi da pregiudizi ingiustificati. La lotta contro la discriminazione algoritmica richiede uno sforzo congiunto da parte di ricercatori, sviluppatori, policy maker e cittadini, affinché le tecnologie digitali siano veramente al servizio di una società più equa e inclusiva.”

L’Intelligenza Artificiale generativa, cioè i sistemi AI che producono testi e immagini di qualità dialogando con gli utenti in qualsiasi lingua, ha la potenzialità di avere un grande impatto sulla nostra società, sull’economia, sulle nostre vite. Con questo ciclo di incontri vogliamo dare a chi non è esperto di AI gli strumenti per capire in che direzioni può andare il nostro mondo, non limitandoci alle previsioni troppo ottimistiche o troppo catastrofiste spesso frutto della comunicazione proprio di chi sta mettendo sul mercato queste tecnologie” dichiara il prof. Guido Boella, Vicerettore per i rapporti con le aziende dell’Università di Torino e cofondatore della Società Italiana per l’Etica dell’Intelligenza Artificiale – SIpEIA.

Ne parlano tutti ma quasi nessuno sa che cosa è. L’IA è oggi tanto un enigma quanto un luogo comune, un terreno fitto di equivoci ma anche un affaccio sul futuro che ci aspetta. Per provare a capire il primo passo è quello di porsi delle domande e ascoltare chi l’IA la conosce, la frequenta, la studia. Questo è l’obiettivo del progetto” commenta Elena Loewenthal, direttore della Fondazione Circolo dei lettori.

Si parte giovedì 5 ottobre alle ore 18 in Sala Grande con Quanto è naturale l’Intelligenza Artificiale?un dialogo tra Guido Boella, la filosofa e fondatrice di Tlon Maura Gancitano e Teresa Numerico (professoressa di Logica e Filosofia della scienza all’Università Roma Tre), moderati da Pietro Jarre, fondatore dell’associazione Sloweb e delle piattaforme eMemory e eLegacy. L’incontro analizzerà il rapporto tra l’intelligenza umana e quella artificiale, e le ripercussioni etiche che derivano dall’uso di dati creati da un “contenitore umano” e “affidati” a uno strumento tecnologico.

Mercoledì 18 ottobre alle ore 18 in Sala Grande Ilaria Bonacossa (direttrice del Museo Nazionale Arte Digitale), Alice Barale (docente di Estetica dell’ Università degli Studi di Milano Statale), Simone Arcagni (critico cinematografico e divulgatore di nuovi media) e Riccardo Milanesi (regista e docente di Corporate Storytelling per la Scuola Holden), moderati dal giornalista Andrea Daniele Signorelli, affronteranno il rapporto tra AI e creatività nell’incontro Creativo a chi?: in pochi mesi i modelli generativi dell’AI (ChatGPT, Stable Diffusion e simili) hanno dimostrato di saper scrivere e dipingere con lo stile di grandi autori e maestri. Ma si tratta di vera creatività? Ed è un’opportunità o un rischio per i posti di lavoro dei creativi?

A questi incontri seguono due appuntamenti “binari” articolati ognuno su due temi:

Martedì 31 ottobre alle ore 18 in Sala Grande si terrà il dibattito L’AI è il futuro dell’informazione o della disinformazione?, con interventi di Carola Frediani, esperta di cybersecurity, e il giornalista Fabio De Ponte, che rifletteranno sul modo in cui l’AI rischia di inquinare il discorso pubblico con materiale propagandistico e disinformazione personalizzati; a seguire la giornalista e data humanizer Donata Columbro, l’esperta di privacy ed etica dell’intelligenza artificiale Ivana Bartoletti, e Marinella Belluati, docente all’Università di Torino, discuteranno nell’incontro Classificati e discriminati sul modo in cui l’AI rischia di discriminare perché impara dal passato.

Il ciclo si concluderà giovedì 16 novembre alle ore 18 in Sala Grande con due incontri: ne Il professore onnisciente, i professori Chiara Pancinelli (Università di Bologna), Pier Cesare Rivoltella (Università Cattolica di Milano), il giornalista Luca De Biase e Guido Boella discuteranno sull’opportunità e i rischi dell’utilizzo dell’AI nell’universo educativo. Infine con l’incontro AI sregolata l’europarlamentare Brando Benifei, il professore di diritto Giovanni Sartor (Università di Bologna) e la docente di diritto dell’Università di Torino Mia Caielli rifletteranno sui modi in cui in futuro sarà possibile regolamentare questi nuovi strumenti, anche a tutela delle professioni creative e del copyright.

Qui il post originale

Condividilo!