Tencent ha lanciato il suo primo LLM ragionato, T1, e i titoli si sono concentrati sulla tecnologia:
Di livello aziendale. Logica al primo posto. Progettato per il processo decisionale.

Ma ciò che ha attirato la nostra attenzione presso AI Thinking non è stata l'architettura, bensì l'intenzione.
E, cosa ancora più importante, cosa dice questa intenzione sulla cultura.

 

🤖 L'intelligenza artificiale riflette la cultura che la costruisce

Spesso sentiamo il termine "bias" nell'intelligenza artificiale, solitamente descritto come un problema che dobbiamo eliminare.
Ma ecco cosa sfugge alla maggior parte delle conversazioni:

Pregiudizio è solo un altro termine per indicare la cultura.

Il pregiudizio è la nostra tendenza a preferire o favorire un'idea, una prospettiva o un risultato rispetto a un altro, spesso senza rendercene conto.
È il modo in cui siamo addestrati a pensare come collettività all'interno della nostra società.

Il modo in cui scriviamo prompt, addestriamo modelli e interpretiamo i risultati?
È plasmato dai presupposti, dai valori e dagli obiettivi delle persone che costruiscono il sistema, in altre parole dalla loro cultura.

Ciò che per una persona sembra “parzialità” potrebbe sembrare “struttura” o “buon senso” per un’altra.
Non è sbagliato, è umano.

Ciò diventa particolarmente importante con gli LLM di ragionamento, che sono progettati per seguire catene di pensiero.
Se queste catene non sono in linea con il nostro modo di pensare, non possiamo entrare in contatto con esse.
Affinché un modello come T1 sia utile, la sua logica deve avere un senso culturale per noi.

 

🇨🇳 Cosa ci dice T1 su Tencent (e la Cina)

T1 non è qui per chiacchierare, creare o intrattenere.
È qui per ragionare. Per supportare il processo decisionale istituzionale.

Finanza. Sanità. Istruzione. Governo.
Non è un gioco pensato per il gioco, ma per la struttura, la logica e l'ordine.
Ed è stato addestrato sui dati delle aziende locali.

Non si tratta solo di strategia di prodotto.
Questo è il pensiero progettuale culturale.

T1 è stato addestrato per riflettere il pensiero cinese e replicherà quei modelli di ragionamento culturali.
Mentre ChatGPT si concentra sulla conversazione e sulla creatività, e Gemini supporta silenziosamente la tua produttività,
Tencent sta sviluppando un'intelligenza artificiale che occupa spazio nelle sale riunioni.

Non si tratta solo di tecnologia.
Riguarda il modo in cui le diverse culture immaginano il ruolo dell'intelligenza artificiale nella società.

 

🔍 Perché questo è importante

Quando parliamo dell'uso dell'intelligenza artificiale nelle nostre organizzazioni, di solito ci chiediamo:

  • Il modello è accurato?

  • È sicuro?

  • Dove vengono archiviati i dati?

  • È in linea con i nostri obiettivi aziendali?

Ma raramente ci chiediamo:
👉 È culturalmente allineato con il modo in cui pensiamo, lavoriamo e decidiamo?
👉 Il suo scopo corrisponde al modo in cui vorremmo che l'intelligenza artificiale funzionasse nel nostro mondo?
👉 E se non fosse così, la discrepanza culturale renderebbe più difficile per le persone comprenderlo e cooperare?

Se saltiamo questo passaggio, rischiamo di adottare strumenti che sono in conflitto con chi siamo e con il modo in cui crediamo che le decisioni debbano essere prese.

 

🧊 I miei pensieri

La parzialità non è sempre un difetto.
A volte è una rappresentazione della nostra cultura che si manifesta all'interno del sistema.

Ciò in cui crediamo, come pensiamo e ciò a cui diamo valore:
Tutto ciò si riflette nei nostri dati personali e organizzativi.

Anche azioni semplici, come dire “scusa” o “grazie”, riflettono modelli culturali.
Hanno un significato. Segnalano chi siamo.
E quando si tratta di LLM concepiti per il ragionamento, questo strato culturale diventa essenziale, perché questi modelli sono concepiti per supportare le decisioni.

Ma le decisioni non si prendono dal nulla.
Vogliamo credere che esista una logica universale, un'idea condivisa di buon senso.
Ma non c'è.

Ciò che definiamo una “buona decisione” è plasmato dal modo in cui vediamo il mondo,
come definiamo il successo e come ragioniamo attraverso le sfide.

Se il tuo team non riesce a seguire la logica dell'LLM, non si fiderà del suo output.
E questa logica, il quadro decisionale, deriva dalla cultura che sta alla base del modello.

Vuoi pensare più chiaramente all'IA che stai utilizzando? Parliamone.

Noi di AI Thinking crediamo che ogni LLM porti con sé la mentalità di chi lo crea.
Capire questo non ti aiuterà solo a scegliere gli strumenti giusti, ma ti aiuterà anche a capire te stesso durante il processo.

Quindi, prima di introdurre l'intelligenza artificiale nella tua azienda, fermati e chiediti:
Con quale tipo di intelligenza vogliamo lavorare?
Non solo cosa può fare, ma anche per cosa è stato costruito e in quale cultura è stato costruito.

Perché alla fine l'intelligenza artificiale non riflette solo i dati,
Ci rispecchia.

Vuoi riflettere più chiaramente sull'intelligenza artificiale che stai utilizzando?

Share Article

Comments (9)

Avinoam Boaron
Avinoam Boaron
24 Mar. 2025

AI’s smart. But it still thinks like someone’s weird uncle.

We keep acting like AI is this neutral brain on a stick, but it’s basically binge-watching the internet and forming opinions. It doesn’t just think—it inherits. So maybe the real question isn’t what it can do, but whose voice it’s doing it in.

Sarit Lahav
Sarit Lahav
24 Mar. 2025

test

test

Avinoam Boaron
Avinoam Boaron
25 Mar. 2025

AI’s smart. But it still thinks like someone’s weird uncle.

We keep acting like AI is this neutral brain on a stick, but it’s basically binge-watching the internet and forming opinions. It doesn’t just think—it inherits. So maybe the real question isn’t what it can do, but whose voice it’s doing it in.

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.