Con OpenAI considerando lanzar su propia plataforma de redes sociales y Perplexity AI explorando recientemente la adquisición de TikTok, es evidente que las empresas de IA están cada vez más interesadas en aprovechar el poder de las redes sociales. Es lógico: las plataformas sociales proporcionan un flujo infinito de interacciones y datos humanos reales, justo lo que los modelos de IA necesitan para mejorar.

Sin embargo, tengo preocupaciones.

Las redes sociales no son sólo un centro de conversaciones genuinas e interacciones significativas; también son donde prosperan la desinformación, las teorías conspirativas y los comportamientos tóxicos.

Estas voces más oscuras a menudo se amplifican porque la controversia impulsa la participación, lo que hace que el contenido más fuerte no sea necesariamente el mejor ni el más preciso.

La pregunta que debemos considerar seriamente es esta: ¿Queremos que nuestros futuros sistemas de IA se adapten a este entorno? La IA aprende del contenido que encuentra, y si se alimenta principalmente de las voces más fuertes, a menudo las más dañinas, corremos el riesgo de entrenar algoritmos que refuercen comportamientos negativos en lugar de interacciones productivas y confiables.

Las empresas de IA ven claramente el valor de la vasta cantidad de datos que ofrecen las redes sociales, pero quizá valga la pena preguntarse si el contenido del que aprenden refleja lo mejor de la comunicación humana, o simplemente la más potente. Al fin y al cabo, la calidad de nuestra IA está directamente relacionada con la calidad de los datos que consume.

Expert Voices

Sarit Lahav
Sarit Lahav

Why OpenAI Might Be Building a Social Platform — and Why It’s Not About the Likes

Frozen Light Team
Frozen Light Team

🧊 OpenAI Might Launch Its Own Social Media Platform

Saray Cohen
Saray Cohen

Are We About to Lose Social Media to Synthetic Voices?

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.