Alors qu'OpenAI envisage de lancer sa propre plateforme de médias sociaux et que Perplexity AI envisage récemment d'acquérir TikTok, il est clair que les entreprises d'IA s'intéressent de plus en plus à exploiter la puissance des médias sociaux. C'est tout à fait logique : les plateformes sociales offrent un flux incessant d'interactions et de données humaines réelles, précisément ce dont les modèles d'IA ont besoin pour s'améliorer.
Cependant, j’ai des inquiétudes.
Les médias sociaux ne sont pas seulement un lieu de conversations authentiques et d’interactions significatives ; c’est aussi un lieu où prospèrent la désinformation, les théories du complot et les comportements toxiques.
Ces voix plus sombres sont souvent amplifiées parce que la controverse stimule l’engagement, ce qui fait que le contenu le plus fort n’est pas nécessairement le meilleur ou le plus précis.
La question que nous devons sérieusement examiner est la suivante : voulons-nous que nos futurs systèmes d’IA soient façonnés par cet environnement ? L’IA apprend du contenu qu’elle rencontre, et si elle est principalement alimentée par les voix les plus fortes, souvent les plus nuisibles, nous risquons d’entraîner des algorithmes qui renforcent les comportements négatifs plutôt que les interactions productives et dignes de confiance.
Les entreprises d'IA perçoivent clairement la valeur des vastes données des médias sociaux, mais il est peut-être utile de se demander si le contenu dont elles tirent des enseignements reflète le meilleur de la communication humaine, ou simplement le plus bruyant. Après tout, la qualité de notre IA est directement liée à la qualité des données qu'elle consomme.