“Caro algoritmo...”. Consapevolezza algoritmica nelle media sharing platforms
Ellenrose Firth
Sapienza, Italia
Quando a dicembre abbiamo assistito al lancio di Threads – il Twitter di Meta – in Europa (The Verge, 2023) molte persone hanno avuto la loro prima esperienza di un social di microblogging con timeline (principalmente) algoritmica. Durante i primi giorni di vita della piattaforma sono comparsi sempre più post che iniziavano con “Caro algoritmo...” o “Ok algoritmo...” e proseguivano dando indicazioni su quali tipologie di persone gli utenti speravano di trovare nella loro rete. Questo riferimento diretto all’algoritmo di piattaforma testimonia una notevole algorithmic awareness (Hamilton et al 2014), frutto di una ormai pervasiva presenza di algoritmi di raccomandazione in tutte le media sharing platform.
In una società nella quale i dati hanno un ruolo sempre più predominante (van Dijck, Poell, de Waal 2019) la consapevolezza algoritmica assume sempre più importanza in quanto diventa essenziale che le persone siano al corrente degli algoritmi che operano nella curatela dei contenuti che vengono mostrati nelle piattaforme da loro utilizzate, non solo quando si tratta di vedere post di amici e conoscenti, ma soprattutto quando si tratta di informazione. Nei media mainstream si parla sempre più spesso di algoritmi, complice anche il successo di TikTok, piattaforma di contenuti distribuiti quasi esclusivamente secondo un flusso algoritmico, ma il loro funzionamento rimane, spesso, percepito come una black box. Per ovviare a questo problema entra in atto la pratica creativa dell'ideazione di immaginari algoritmici (Bucher, 2017), e conseguenti folk theories (DeVito, Gergle, Birnholtz 2017), che orientano i comportamenti degli utenti online e portano a vari livelli di consapevolezza.
Questo tema è emerso con forza all'interno dell'analisi tematica di 30 interviste in profondità portate avanti con persone tra i 18 e i 35 anni, inserite all’interno di un progetto più ampio sugli usi e le percezioni di TikTok, le quali si sono concentrate sulla percezione e consapevolezza algoritmica, declinate poi nelle dimensioni di collaborazione, resistenza e affidamento.
Nel primo caso gli utenti si mostrano consapevoli delle dinamiche algoritmiche in atto nella piattaforma e parlano delle azioni che compiono per aiutare il “loro” algoritmo a capire meglio che genere di contenuti mostrare.
Nel secondo, tenendo sempre in mente la presenza di questo attore, condividono i gesti che fanno per riorientare i contenuti che si trovano in piattaforma nei casi in cui la loro identità algoritmica non rispecchi la loro identità percepita (Karizat et al 2021), in alcuni casi arrivando a chiudere o cancellare l’app.
Nell’ultimo caso si inseriscono gli utenti che hanno una consapevolezza dell’algoritmo di piattaforma ma scelgono di non interagirci per riorientare i contenuti, piuttosto lasciano che la piattaforma faccia da sé e costruendo il loro gusto in base alle proposte della app.
Per quanto l’esperienza in TikTok non sia generalizzabile a tutte le piattaforme di media sharing è un buon esempio del livello di algorithmic awareness che hanno gli utenti di queste piattaforme – soprattutto quelli appartenenti a una fascia d’età giovane, come suggerito anche da Gran, Booth e Bucher nel loro studio del 2021 sulla consapevolezza algoritmica come possibile digital divide.
GenAI tra entusiasmo e preoccupazione. Uno studio su opinioni e percezioni degli studenti universitari italiani
Claudio Melchior
Università di Udine, Italia
Le tecnologie basate sull'intelligenza artificiale da decenni fanno parte della vita sociale e trovano applicazione nei più svariati campi, dalla medicina all'ambito legale, dall’arte alla robotica. Piuttosto recente al contrario è l'adozione di massa di sistemi basati sull’intelligenza artificiale di tipo generativo, caratterizzati dall’utilizzare il linguaggio naturale e quindi di essere potenzialmente "aperti a tutti", anche agli utenti che non dispongono di conoscenze tecniche o di programmazione.
Per comprendere come gli studenti universitari italiani utilizzano e percepiscono gli strumenti di GenAI, è stato condotto uno studio prevalentemente quantitativo basato su un questionario online composto da 55 items, prevalentemente a risposta chiusa, con l'obiettivo di indagare le seguenti domande di ricerca:
- Quanto attualmente gli studenti universitari italiani utilizzano i sistemi di IA generativa?
- Qual è il grado di fiducia riposto nell’efficacia dei risultati ottenuti da questi sistemi?
- Qual è la loro opinione sull'influenza che la GenAI avrà sul loro futuro?
- Quali tipi di timori, paure o preoccupazioni, o, al contrario, quali opportunità e vantaggi gli intervistati associano allo sviluppo dei sistemi di GenAI in relazione al futuro della società?
Il questionario è stato diffuso da ottobre a dicembre 2023 (un anno dopo il lancio di ChatGPT) e ha raccolto 1366 risposte, tutte provenienti da studenti universitari attualmente iscritti a un totale di 23 università di tutta Italia, che sono poi state analizzate sia dal punto di vista quantitativo (con SPSS), sia dal punto di vista qualitativo per quanto riguarda le tre domande aperte (NVivo).
Emerge un quadro variegato, in cui l'uso di questi sistemi di GenAI tra i giovani studenti italiani sembra essere già sufficientemente diffuso (anche per svolgere compiti universitari, dove però sembra ancora permanere un tabù a dichiararlo apertamente) ma anche una serie di opinioni e preoccupazioni ambivalenti e in qualche misura contraddittorie che fanno sorgere il dubbio che l’opinione espressa su queste tecnologie sia poco chiara e fortemente influenzata da aspetti di “desiderabilità sociale”. Gli intervistati dichiarano una forma di preoccupazione legata alla diffusione di questi sistemi, ma questa preoccupazione è espressa solo a “livello generale”, su questioni lontane e astratte che riguardano la società nel suo complesso ma non il proprio percorso personale, negando quindi la percezione di influenze dirette sulla propria vita.
In generale, si evidenzia la presenza di quattro diverse polarizzazioni degli atteggiamenti di opinione. Il primo cluster identificato nei dati (21,3% del campione di convenienza) associa gli sviluppi delle tecnologie di GenAI a un impoverimento generalizzato di tutte le capacità umane e a un rischio per la società e per il proprio futuro. Sono quelli che utilizzano poco frequentemente la GenAI e hanno un atteggiamento negativo (“apocalittico”) nei confronti di questo tema. Al contrario, un cluster di “entusiasti” (o “integrati”) rappresentante il 30,3% dei rispondenti, assume un atteggiamento esattamente opposto, carico di fiducia ed entusiasmo nei confronti del potenziale di miglioramento che queste tecnologie possono portare alla società e a tutte le abilità umane. Un terzo cluster (29,5%) è riconducibile a un gruppo di persone altamente digitalizzate e con ottime competenze in area informatica che esprime sentimenti e opinioni sostanzialmente intermedie, e in qualche modo “neutre”, rispetto ai due poli appena descritti. Infine un quarto cluster, costituito dal rimanente 18,9%, è rappresentato da persone “indifferenti”, ovvero da coloro che si sentono sostanzialmente estranei a queste rivoluzioni in atto, utilizzano poco le device digitali e i sistemi di generative AI e hanno opinioni poco nette su tutte le dimensioni analizzate, che sembrano non comprendere appieno e non attirare il loro interesse.
Quale equità algoritmica? La persistenza del mito della neutralità dello strumento tra i programmatori di sistemi di ML
Paola Panarese, Marta Grasso, Cosimo Miraglia
Sapienza, Università di Roma, Italia
I sistemi di Machine Learning (ML) e Intelligenza Artificiale (IA) possono esercitare una profonda influenza nei contesti socio-culturali (van Dijck, Poell, de Waal, 2019), orientando, tra l’altro, preferenze, comportamenti, estetiche e immaginari (Manovich, 2018). Guidati da logiche computazionali e tecnologie algoritmiche, tali sistemi possono sia elaborare e classificare grandi moli di dati, sia ridurre la complessità dei fenomeni che descrivono (Crawford, 2021).
Le macchine algoritmiche, poi, si configurano come “agenti sociali” (Airoldi, 2022), ossia come il prodotto socialmente e storicamente situato (Airoldi, 2022; Aragona, 2020; Dourish, 2016) di intricate interazioni tra individui e “attori” tecnologici (Latour, 1987), e, al pari delle persone, apprendono e replicano comportamenti, abitudini e valori culturali (Airoldi, 2022).
Ne deriva che gli algoritmi non sono né neutrali né oggettivi (Aragona, 2020), con potenziali ricadute sociali, compreso il rafforzamento di pregiudizi e disparità (Gupta et al., 2021).
Proprio sulla base della consapevolezza che le decisioni prese dai sistemi di ML/IA possono avere un impatto significativo sulle persone, in particolare su coloro la cui identità è più vulnerabile, negli ultimi anni si è assistito a un interesse crescente nei confronti dell’equità algoritmica (Bellamy et al., 2018; Cowgill, Tucker, 2020; Pessach, Shmueli, 2020).
In questa direzione, si colloca il progetto di ricerca PRIN PNRR IMAGES (Inclusive Machine learning system using Art and culture for tackling Gender and Ethnicity Stereotypes), promosso da Sapienza Università di Roma e dal Consiglio Nazionale delle Ricerche (CNR), volto a indagare inclusività e accessibilità dei sistemi di ML/IA utilizzati in dataset e piattaforme di opere d’arte, con il duplice intento di mitigare i pregiudizi di genere ed etnici di tali sistemi (Shrestha, Das, 2022) e utilizzare immagini artistiche come strumento formativo per promuovere sensibilità e consapevolezza in merito all’equità di genere, alla diversità culturale e all’inclusione sociale.
Nell’ambito del progetto, si propone un paper che mette a confronto gli esiti di una scoping analysis della letteratura sui bias di genere di genere ed etnici incorporati in testi e immagini dalle tecnologie algoritmiche e di IA, con i punti di vista, le esperienze, i percorsi formativi e le prassi professionali dei programmatori di sistemi di ML, raccolti con interviste in profondità. Considerando la predominanza degli uomini impiegati nel campo delle tecnologie informatiche (WEC, 2022), le dinamiche d’influenza nei luoghi di lavoro (Lancaster et al., 2023) e gli studi sui bias degli sviluppatori (Cratsley, Fast, 2024), l’obiettivo specifico del contributo è verificare la persistenza del mito della neutralità algoritmica nell’immaginario dei professionisti del settore, soprattutto in relazione alla dimensione etnica e di genere (Natale e Ballatore, 2018).
L’analisi della letteratura, effettuata tramite keyword su Scopus e Web Of Science, ha restituito 1.341 contributi, che hanno permesso di individuare prospettive disciplinari prevalenti, tematiche privilegiate, metodi di ricerca utilizzati ed esiti più rilevanti, costituendo sia la base sia un ambito di confronto con i punti di vista dei programmatori.
In linea con altri studi sul tema (Lancaster et al., 2023; Cratsley, Fast, 2024), i primi risultati rivelano, tra gli sviluppatori, una conoscenza prevalentemente teorica e tendenzialmente superficiale delle possibili iniquità dei sistemi algoritmici, una ridotta consapevolezza dei potenziali impatti dei loro prodotti sull’equità e la giustizia sociale e la discreta persistenza del mito della neutralità algoritmica, con alcune variazioni legate al genere e al profilo culturale degli intervistati.
"Agency percepita" e "agency effettiva". Una triangolazione metodologica per comprendere la relazione tra utenti e music streaming platforms
Massimiliano Raffa
Università degli Studi dell'Insubria, Italia
L’incessante quanto incontrollabile soggezione della nostra vita quotidiana all’intermediazione di tecnologie della comunicazione basate sul funzionamento degli algoritmi e sulla loro capacità di leggere e interpretare i nostri comportamenti e i nostri desideri è oramai da diversi anni oggetto di interesse da parte di studiosi delle più varie discipline. Tale interesse è risultato in una rapida germinazione di riflessioni presto rivoltesi anche alle mutate funzioni di produzione e di consumo culturale, oggi largamente mediate dai dispositivi del capitalismo digitale, alla cui ascesa si è accompagnata una progressiva riconfigurazione delle modalità con le quali i contenuti culturali vengono prodotti, disseminati e fruiti. Benché in una fase iniziale siano stati dominanti orientamenti tendenti a scorgere nella presunta democratizzazione dello scambio culturale promessa dagli spreadable media un orizzonte di libero esercizio dell’intelligenza collettiva nel segno della cultura partecipativa, con gli anni sono andate consolidandosi visioni assai meno ottimistiche, dirette all’indagine critica della dimensione politica, economica, istituzionale, ideologica e infrastrutturale delle piattaforme.
Il presente paper ambisce a offrire un contributo al corrente dibattito introducendo la discussione di una triangolazione metodologica impiegata in uno studio di recente pubblicazione, volta a comprendere la relazione tra agency degli utenti e affordances di un servizio di streaming tipicamente rappresentativo del capitalismo delle piattaforme, Spotify. Centinaia di milioni di persone in tutto il mondo fruiscono oggi di prodotti musicali diffusi da servizi di streaming attorno ai quali si è sviluppato un sistema di produzione, distribuzione e consumo controverso e ampiamente discusso, tuttavia alcuni aspetti relativi alle implicazioni sociali della mediazione algoritmica della dialettica produzione-consumo culturale restano ancora da comprendere a fondo.
Il disegno metodologico adottato per lo studio dell’”agency effettiva” e dell’”agency percepita” degli utenti di Spotify coinvolti nella ricerca, e dei relativi processi di sense-making sviluppati dagli stessi, prevede l’impiego di tre metodi:
- Interviste qualitative: l’analisi delle interviste ha permesso l’accesso alla dimensione della “soggettività interpersonale” degli utenti, ovvero il modo in cui essi interpretano la loro relazione con i media algoritmici, svelando il loro complesso di pregiudizi, aspettative e strategie di costruzione della propria personalità di consumatore culturale digitale.
- Diari riflessivi: il metodo accede alla “soggettività intrapersonale” degli utenti, poiché consente l’esternazione in tempo reale dei processi di sense-making attraverso una autopresentazione consapevole delle proprie percezioni.
- Analisi dei dati API relativi all’attività degli utenti sulla piattaforma: l’esplorazione dei metadati, svolta attraverso l’aggregazione e analisi dei dati svolta con Python, ha offerto una utile panoramica sulla dimensione “oggettiva” dell’attività degli utenti, permettendo poi una analisi comparativa dell’”agency percepita” e dell’”agency effettiva” degli utenti.
Lo studio ha mostrato una netta divaricazione tra ciò che gli utenti percepiscono e la loro effettiva attività, rivelando alcuni effetti sia positivi sia negativi della mediazione operata dalla piattaforma enmettendo in luce sia i preconcetti degli utenti relativamente ad alcune potenzialità dei servizi di streaming sia alcuni elementi critici delle piattaforme, che riguardano in particolare la loro capacità di indirizzare i consumi verso prodotti più standardizzati, espressione del mainstream culturale, a detrimento dell’ampliamento degli orizzonti culturali degli utenti. La triangolazione dei metodi ha permesso di comprendere sia come una posizione di scetticismo sia spesso impiegata come marcatore di “distinzione sociale” sia di ipotizzare che, allo stesso tempo, le piattaforme esercitano attraverso la propria “interfaccia invisibile” una propria agency favorendo l’orientamento degli utenti a consumi che nell’economia politica delle piattaforme contribuiscono al perseguimento di specifici obiettivi commerciali e finanziari. In conclusione, il presente contributo ambisce a presentare alcuni strumenti di indagine potenzialmente utili a comprendere i processi di sense-making costruiti dagli utenti dei media algoritmici pur senza sottovalutare alcune potenziali forme di compressione dell’agentività degli utenti operate dal sistema delle piattaforme.
|