כאשר AI מעצב את מה שאנחנו יודעים ומאמינים: דטרמיניזם אלגוריתמי ואי צדק אפיסטמי בעידן הבינה המלאכותית

בינה מלאכותית הולכת ונעשית שזורה בל יינתק במרקם הקיום שלנו, ולוקחת על עצמה משימות שפעם היו רק מחוזות האינטלקט האנושי. מאבחון ניואנסים של מחלות ועד לחיזוי מגמות בשוק, מערכות AI נפרסות יותר ויותר כמכשירים אדירים לפענוח וניווט במורכבות העולם שלנו. עם זאת, כמו השפעתם של פורצי בינה מלאכותית, כך גם החרדה מפני התפשטות ההטיה. האקסיומה המצוטטת לעתים קרובות, "זבל פנימה, זבל החוצה", מרמזת שבינה מלאכותית רק משקפת את הדעות הקדומות החברתיות המוטבעות בנתוני ההכשרה שלה. בעוד שהתבוננות זו טומנת בחובה מעט אמת, היא רק מגרדת את פני השטח של נרטיב הרבה יותר עמוק - וללא ספק מטריד יותר.
הנושא החשוב ביותר הוא מעבר לשיקוף ההטיה של AI. זהו התפקיד הטרנספורמטיבי של AI כאדריכל של הידע הקולקטיבי ומערכות האמונה שלנו. בתפקידה המתהווה כיוצר ידע וגם כבורר מידע, AI מאלץ אותנו להתעלות מעל פרדיגמת ה"נתונים פנימה, הטיה החוצה" הפשטנית. במקום זאת, עלינו להתעמת עם האפיסטמולוגיה של הטיית בינה מלאכותית - הדרכים שבהן הטיה כזו מעוותת באופן יסודי את הגישה שלנו לידע, מטה את החקירה המדעית ומנציחה אי צדק אפיסטמי עמוק.
קחו בחשבון את מערכות הבינה המלאכותית שהפכו לבסיס של מערכת המידע האקולוגית של המאה ה-21 שלנו. מנועי חיפוש, אלגוריתמי המלצות במדיה חברתית ופלטפורמות סטרימינג וכלי מחקר מתוחכמים שנועדו לנפות מערכי נתונים רחבים הם כולם סמל למהפכה הטכנולוגית הזו. לא עוד רק צינורות פסיביים של ידע קיים, מערכות אלו התפתחו לאוצרים ומתורגמנים פעילים. כתוצאה מכך, כאשר הטיה חודרת למערכות אלו, ההשלכות חורגות הרבה מעבר למיקום השגוי של כמה פרסומות; יש להם את הכוח לעוות בעדינות - או בגלוי - את הבנתנו את העולם.
דמיינו לעצמכם מנוע חיפוש מותנה אלגוריתמית כדי להעלות תוצאות המהדהדות נרטיבים תרבותיים דומיננטיים. עבור קהילות מודרות, זה יכול להתבטא כהצגה בלתי פוסקת של מידע המסונן דרך עדשה זרה, או גרוע מכך, כמצגי שווא שיטתיים של ההיסטוריה והחוויות שלהם. כמו כן, מערכות המלצות מוטות במדיה החברתית יכולות ליצור תאי הד דיגיטליים המחזקים סטריאוטיפים קיימים ומצמצמים את החשיפה לנקודות מבט מגוונות. אם אלגוריתמים מקשרים בהתמדה דמוגרפיה מסויימת לטרופים שליליים, אנשים מקבוצות אלה עלולים להיות מופגזים באופן לא פרופורציונלי בתוכן המחזק נרטיבים מזיקים, ובכך להעמיק את אי השוויון החברתי.
תוצאות כאלה חורגות מתחום השתקפות גרידא. כאשר בינה מלאכותית מפסלת באופן פעיל את נוף המידע, היא הופכת לסוכן רב עוצמה של אי צדק אפיסטמי. התפיסה של הפילוסופית מירנדה פריקר על אי צדק אפיסטמי מקפלת בתוכו את הנזקים הנגרמים ליחידים כאשר הם מונעים שלא בצדק ביכולתם לדעת, להבין ולתרום למאגר הידע הקולקטיבי שלנו. מערכות בינה מלאכותית מוטות יכולות להחמיר אי צדק אפיסטמי בכמה דרכים קריטיות:
בעוד ששיח אתי עכשווי על הטיית בינה מלאכותית מתמקד לעתים קרובות בזיהוי והפחתה, מאמצים אלה אינם מספיקים, למרות שהם חיוניים, בבידוד. עלינו להרחיב את השיחה כדי לחקור את ההשלכות האפיסטמיות העמוקות של AI מוטה. אי אפשר לדחות את הטיית ההתייחסות לתרגיל טכני של מערכי נתונים או אלגוריתמים של "ביטול הטיה". במקום זאת, זה מחייב בחינה ביקורתית של האופן שבו מערכות בינה מלאכותית הן מנציחות והן מעצימות מבני כוח מושרשים בתחום של ייצור והפצת ידע.
מבחינה היסטורית, היצירה וההפצה של ידע נשלטו על ידי דינמיקה כוחנית המעניקה פריבילגיה למוסדות, קולות ונקודות מבט מסוימים, תוך דחיקה לשוליים של אחרים. אם מערכות בינה מלאכותית מפותחות ונפרסות ללא מודעות חדה לדינמיקה הזו, הן מסתכנות באוטומציה והחמרת אי-השוויון הללו. לדוגמה, אם מערכי הנתונים המועסקים בהכשרה נגזרים בעיקר ממקורות מערביים, ממוקדי גברים, מערכות הבינה המלאכותית שיתקבלו כנראה ישקפו ויגדילו את ההטיות הללו - וירחיקו עוד יותר נקודות מבט לא-מערביות ונשיות.
כיצד, אם כן, נוכל להבטיח שבינה מלאכותית תופיע כמכשיר של צדק אפיסטמי במקום וקטור של פגיעה אפיסטמית? התשובה טמונה בהתעלות מעבר לפתרונות טכניים צר, ובאימוץ פרדיגמה הוליסטית, מודעת חברתית הכוללת:
לסיכום, התייחסות לאפיסטמולוגיה של הטיית בינה מלאכותית מחייבת שינוי פרדיגמה בהמשגה שלנו של טכנולוגיות אלו. בינה מלאכותית אינה כלי ניטרלי אלא כוח רב עוצמה שיכול לעצב באופן עמוק את הבנתנו את העולם ואת הגישה שלנו לידע. על ידי הקמת צדק אפיסטמי ופירוק חרוץ של המנגנונים שבאמצעותם בינה מלאכותית מוטה מנציחה פגיעה אפיסטמית, אנו יכולים להשתדל לבנות מערכות המשמשות צינורות אמיתיים לידע, העצמה וקידום חברה שוויונית יותר.
We’ll never share your details. View our Privacy Policy for more info.