مع تفكير OpenAI في إطلاق منصة تواصل اجتماعي خاصة بها، وبحث Perplexity AI مؤخرًا عن استحواذ على TikTok، من الواضح أن شركات الذكاء الاصطناعي تتزايد اهتمامها بتسخير قوة وسائل التواصل الاجتماعي. وهذا منطقي تمامًا، إذ توفر منصات التواصل الاجتماعي تدفقًا لا ينضب من التفاعلات البشرية الحقيقية والبيانات، وهو بالضبط ما تحتاج نماذج الذكاء الاصطناعي إلى تحسينه.

ومع ذلك، لدي مخاوف.

لا تعد وسائل التواصل الاجتماعي مركزًا للمحادثات الحقيقية والتفاعلات ذات المغزى فحسب؛ بل إنها أيضًا المكان الذي تزدهر فيه المعلومات المضللة ونظريات المؤامرة والسلوكيات السامة.

غالبًا ما يتم تضخيم هذه الأصوات المظلمة لأن الجدل يحرك المشاركة، مما يجعل المحتوى الأعلى صوتًا ليس بالضرورة الأفضل أو الأكثر دقة.

السؤال الذي يجب أن نفكر فيه بجدية هو: هل نريد أن تُشكّل هذه البيئة أنظمة الذكاء الاصطناعي المستقبلية لدينا؟ يتعلم الذكاء الاصطناعي من المحتوى الذي يواجهه، وإذا كان يتغذى بشكل أساسي على الأصوات الأعلى صوتًا - والأكثر ضررًا في كثير من الأحيان - فإننا نخاطر بتدريب خوارزميات تُعزز السلوكيات السلبية بدلًا من التفاعلات البنّاءة والجديرة بالثقة.

من الواضح أن شركات الذكاء الاصطناعي تُدرك قيمة البيانات الهائلة لوسائل التواصل الاجتماعي، ولكن ربما يجدر بنا التوقف قليلاً لنتساءل عما إذا كان المحتوى الذي يتعلمون منه يعكس أفضل ما في التواصل البشري، أم أنه ببساطة الأكثر صخبًا. ففي نهاية المطاف، ترتبط جودة الذكاء الاصطناعي ارتباطًا مباشرًا بجودة البيانات التي يستهلكها.

Expert Voices

Sarit Lahav
Sarit Lahav

Why OpenAI Might Be Building a Social Platform — and Why It’s Not About the Likes

Frozen Light Team
Frozen Light Team

🧊 OpenAI Might Launch Its Own Social Media Platform

Saray Cohen
Saray Cohen

Are We About to Lose Social Media to Synthetic Voices?

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.