Con OpenAI che sta valutando il lancio della propria piattaforma di social media e Perplexity AI che ha recentemente valutato l'acquisizione di TikTok, è chiaro che le aziende di intelligenza artificiale sono sempre più interessate a sfruttare la potenza dei social media. È perfettamente logico: le piattaforme social offrono un flusso infinito di interazioni umane e dati reali, esattamente ciò che i modelli di intelligenza artificiale devono migliorare.

Tuttavia ho delle preoccupazioni.

I social media non sono solo un luogo dove si svolgono conversazioni genuine e interazioni significative; sono anche il luogo in cui proliferano disinformazione, teorie del complotto e comportamenti tossici.

Queste voci più cupe vengono spesso amplificate perché le controversie stimolano il coinvolgimento, rendendo i contenuti più forti non necessariamente i migliori o i più accurati.

La domanda che dobbiamo porci seriamente è questa: vogliamo che i nostri futuri sistemi di intelligenza artificiale siano plasmati da questo ambiente? L'intelligenza artificiale impara dai contenuti che incontra e, se si alimenta principalmente dalle voci più forti – spesso più dannose – rischiamo di addestrare algoritmi che rafforzano comportamenti negativi anziché interazioni produttive e affidabili.

Le aziende di intelligenza artificiale riconoscono chiaramente il valore dell'enorme quantità di dati dei social media, ma forse vale la pena fermarsi a chiedersi se i contenuti da cui apprendono riflettano il meglio della comunicazione umana, o semplicemente il più eclatante. Dopotutto, la qualità della nostra intelligenza artificiale è direttamente collegata alla qualità dei dati che consuma.

Expert Voices

Sarit Lahav
Sarit Lahav

Why OpenAI Might Be Building a Social Platform — and Why It’s Not About the Likes

Frozen Light Team
Frozen Light Team

🧊 OpenAI Might Launch Its Own Social Media Platform

Saray Cohen
Saray Cohen

Are We About to Lose Social Media to Synthetic Voices?

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.