פגיעות אבטחה משמעותית התגלתה ב-GitHub Copilot, עוזר הקוד המופעל על ידי AI של מיקרוסופט. הבעיה מקושרת למערכת המטמון של בינג. כאשר מאגרים ציבוריים הפכו לפרטיים, המטמון של Bing שמר על הנתונים הישנים, ואיפשר ל-Copilot להציע קטעי קוד ממאגרים אלה. זה חשף מידע רגיש, והשפיע על חברות כמו גוגל, IBM, PayPal ואפילו מיקרוסופט עצמה.
כיצד פועלת הפגיעות
הבעיה נובעת מהאינדקס והשמירה של Bing של מאגרים ציבוריים. כאשר הסטטוס של מאגר משתנה מציבורי לפרטי, הנתונים המאוחסנים במטמון אינם מתעדכנים או מוסרים מיידית. כתוצאה מכך, Copilot המשיכה לספק הצעות המבוססות על מטמון מיושן זה, מה שהוביל לחשיפה לא מכוונת של קניין רוחני, מפתחות גישה, אסימוני אבטחה וחבילות תוכנה פנימיות. זה לא פגם ישיר ב-Copilot או GitHub אלא תוצאה של התנהגות המטמון של Bing.
גילוי והשפעה
חברת אבטחת הסייבר הישראלית לאסו זיהתה בעיה זו כאשר גילתה שמאגר GitHub הפרטי שלה עדיין נגיש באמצעות ההצעות של Copilot. חקירה נוספת העלתה שיותר מ-16,000 ארגונים הושפעו, עם למעלה מ-300 אישורי אבטחה פרטיים ויותר מ-100 חבילות תוכנה פנימיות בסיכון. זה העלה חששות אבטחה משמעותיים לגבי הגנת קניין רוחני והסיכון של דליפת מידע סודי.
התגובה והחששות המתמשכים של מיקרוסופט
לאחר שהודיעו לנו על הבעיה בנובמבר 2024, מיקרוסופט עדכנה את מדיניות האבטחה שלה בינואר 2025. הם הגבילו את הגישה הציבורית למטמון של בינג, במטרה לצמצם חשיפה נוספת. עם זאת, החששות נמשכים לגבי התמשכותם של נתונים בקובץ שמור והפוטנציאל לפגיעויות דומות בכלים אחרים מונעי בינה מלאכותית. אירוע זה מדגיש את המורכבות של פרטיות הנתונים במערכות בינה מלאכותית, במיוחד עבור פלטפורמות הנשענות על מערכי נתונים עצומים עבור למידת מכונה.
תגובות קהילה וחששות אתיים
התקרית עוררה ויכוחים לגבי ההרשאות של Copilot, במיוחד גישת הקריאה והכתיבה הנרחבת שלה למאגרים ציבוריים ופרטיים. מפתחים דורשים יותר שקיפות לגבי האופן שבו Copilot ניגשת ומשתמשת בקוד ממאגרים פרטיים. מצב זה עורר דאגות רחבות יותר לגבי אתיקה של AI ופרטיות נתונים.
המלצות למפתחים וארגונים
- היסטוריית מאגר ביקורת: סקור את ההיסטוריה של כל מאגר שהיה פומבי אי פעם עבור נתונים רגישים. גם אם מאגר היה ציבורי לזמן קצר, כלים אוטומטיים יכולים לסרוק במהירות את GitHub לאיתור מידע רגיש כמו מפתחות גישה, שמות משתמש, סיסמאות וסודות אחרים.
- סובב מפתחות ואישורים: החלף מפתחות גישה או אישורים שאולי נחשפו.
- השתמש בשיטות קידוד מאובטח: הימנע מאחסון מידע רגיש כמו מפתחות API בקוד המקור. השתמש במשתני סביבה או בכלי ניהול סודות מאובטחים במקום זאת.
- מעקב אחר גישה: הטמע פתרונות ניטור כדי לזהות גישה לא מורשית או פעילות חריגה הקשורה למאגרים שלך.
- דרשו שקיפות ובקרה: תומכים בפלטפורמות כמו GitHub ו-Microsoft כדי לספק יותר שקיפות ושליטה על האופן שבו כלי AI ניגשים ומשתמשים בנתונים המאוחסנים במטמון.
- סקור הרשאות באופן קבוע: סקור מעת לעת את ההרשאות שניתנו ל-Copilot ולכלים אחרים של צד שלישי, תוך הגבלת גישה רק למה שנדרש.
- בדוק לאילו כלי AI יש גישה: סקור באופן קבוע לאילו כלי AI יש גישה למאגרי GitHub שלך, לא רק לבעיה זו, אלא כדרך מומלצת לשמירה על מידע רגיש בעתיד.
- הגבל יצירת מאגר ציבורי: הגבל את היכולת ליצור מאגרים ציבוריים לאנשים ספציפיים בתוך הארגון. התייעץ עם צוותי אבטחה ומשפטים לפני פרסום מאגר כלשהו לציבור כדי להבטיח עמידה בתקנות הפרטיות והגנות על קניין רוחני.
- השתמש בחשבונות נפרדים עבור מאגרים ציבוריים: שקול ליצור חשבון ארגון נפרד אך ורק עבור מאגרים ציבוריים כדי למזער את הסיכון של חשיפה בטעות של מידע פנימי רגיש.
השלכות עסקיות וניהול סיכונים
תקרית זו אינה רק דאגה טכנית; הוא מהווה סיכונים עסקיים משמעותיים. דליפות נתונים עלולות לפגוע במוניטין המותג, להוביל לאובדן אמון הלקוחות ולגרום לעונשים משפטיים עקב אי ציות לתקנות פרטיות הנתונים. עבור חברות הממנפות בינה מלאכותית במוצרים שלהן, זה משמש כתזכורת ליישם נוהלי אבטחת נתונים חזקים. צוותי מכירות ושיווק צריכים להיות פרואקטיביים בתקשורת אמצעי אבטחה ללקוחות כדי לשמור על אמינות ואמון לקוחות.
מחשבות אחרונות
אירוע זה ממחיש את האתגרים של פרטיות הנתונים במערכות AI ומדגיש את הצורך במדיניות נתונים שקופה ובנוהלי אבטחה חזקים. מפתחים וארגונים חייבים להיות ערניים לגבי האופן שבו הנתונים שלהם נשמרים במטמון וגישה אליהם, במיוחד כאשר משתמשים בכלים המונעים בינה מלאכותית המסתמכים על מאגרים ציבוריים. על ידי אבטחת מידע רגיש באופן יזום, בדיקה קבועה של הרשאות גישה ותמיכה בשקיפות טובה יותר מספקי טכנולוגיה, קהילת המפתחים יכולה להפחית את הסיכונים של חשיפת נתונים.
תישאר קפוא! ❄️
-קובי.