Con OpenAI che sta valutando il lancio della propria piattaforma di social media e Perplexity AI che ha recentemente valutato l'acquisizione di TikTok, è chiaro che le aziende di intelligenza artificiale sono sempre più interessate a sfruttare la potenza dei social media. È perfettamente logico: le piattaforme social offrono un flusso infinito di interazioni umane e dati reali, esattamente ciò che i modelli di intelligenza artificiale devono migliorare.
Tuttavia ho delle preoccupazioni.
I social media non sono solo un luogo dove si svolgono conversazioni genuine e interazioni significative; sono anche il luogo in cui proliferano disinformazione, teorie del complotto e comportamenti tossici.
Queste voci più cupe vengono spesso amplificate perché le controversie stimolano il coinvolgimento, rendendo i contenuti più forti non necessariamente i migliori o i più accurati.
La domanda che dobbiamo porci seriamente è questa: vogliamo che i nostri futuri sistemi di intelligenza artificiale siano plasmati da questo ambiente? L'intelligenza artificiale impara dai contenuti che incontra e, se si alimenta principalmente dalle voci più forti – spesso più dannose – rischiamo di addestrare algoritmi che rafforzano comportamenti negativi anziché interazioni produttive e affidabili.
Le aziende di intelligenza artificiale riconoscono chiaramente il valore dell'enorme quantità di dati dei social media, ma forse vale la pena fermarsi a chiedersi se i contenuti da cui apprendono riflettano il meglio della comunicazione umana, o semplicemente il più eclatante. Dopotutto, la qualità della nostra intelligenza artificiale è direttamente collegata alla qualità dei dati che consuma.