האם בינה מלאכותית מצמצמת שקטה של תפיסות עולם? חוקר ישראלי טוען

מאת פֶּסַח בֶּנְסוֹן • 7 באוגוסט 2025

ירושלים, 7 באוגוסט 2025 (TPS-IL) — ככל שכלי בינה מלאכותית יוצרת כמו ChatGPT משתלבים בחיי היומיום, מלומדת משפטית ישראלית אחת מעלה דאגה דחופה: מערכות אלו עלולות לצמצם בשקט את תפיסת העולם שלנו.

במאמר שפורסם לאחרונה ב-Indiana Law Journal, פרופ' מיכל שור-אופרי מהאוניברסיטה העברית בירושלים, וכן Visiting Faculty Fellow במכון לדיני מידע של אוניברסיטת NYU, טוענת שמודלים של שפה גדולים (LLMs) נוטים לייצר תוכן סטנדרטי ומיינסטרימי – על חשבון גיוון תרבותי ושיח דמוקרטי.

"אם כולם מקבלים את אותם סוגי תשובות מיינסטרימיות מבינה מלאכותית, זה עלול להגביל את מגוון הקולות, הנרטיבים והתרבויות שאנו נחשפים אליהם", אמרה שור-אופרי. "עם הזמן, זה עלול לצמצם את עולם המחשבות הניתנות לחשיבה שלנו".

מחקר שלה בחן כיצד תשובות שנוצרו על ידי בינה מלאכותית, אף שהן שימושיות וסבירות לעיתים קרובות, הן חוזרות על עצמן וצרות מבחינה תרבותית. לדוגמה, כשנשאלה על דמויות חשובות במאה ה-19, ChatGPT החזירה שמות כמו אברהם לינקולן, צ'רלס דרווין ומלכה ויקטוריה – בולטים, אך באופן מובהק אנגלו-צנטריים. הטיה דומה עלתה כאשר המודל קיבל הנחיה לרשום את סדרות הטלוויזיה הטובות ביותר: התוצאות נטו באופן משמעותי ללהיטים דוברי אנגלית, תוך השמטת חלופות לא-מערביות ולא-אנגליות.

הבעיה, מסבירה שור-אופרי, נעוצה באופן שבו מערכות בינה מלאכותית אלו בנויות. מודלים של שפה גדולים מאומנים על כמויות עצומות של טקסט אינטרנטי, שהן באנגלית באופן לא פרופורציונלי ומשקפות נורמות תרבותיות דומיננטיות. המודלים משתמשים בדפוסים סטטיסטיים כדי לחזות תגובות סבירות, כלומר מה שהכי נפוץ מופיע הכי הרבה פעמים. בעוד שגישה זו מגבירה דיוק וקוהרנטיות, היא משאירה בצד פרספקטיבות מקהילות לשוניות ותרבותיות קטנות יותר. עם הזמן, ככל שמודלים של שפה גדולים ניזונים מהפלט שלהם וממשיכים להתאמן על תוכן דיגיטלי קיים, האפקט המצמצם מצטבר.

"זו לא רק תקלה טכנית", מזהירה שור-אופרי. "זה עלול להיות בעל השלכות חברתיות עמוקות. זה עלול להפחית את הגיוון התרבותי, לערער את הסובלנות החברתית, ולהחליש את יסודות השיח הדמוקרטי והזיכרון הקולקטיבי".

כדי להתמודד עם מגמה זו, שור-אופרי מציעה עיקרון משפטי ואתי חדש לממשל בינה מלאכותית: "ריבוי". רעיון זה קורא לתכנן כלי בינה מלאכותית באופן שיקדם באופן פעיל חשיפה לנקודות מבט ונרטיבים מגוונים, ולא רק להחזיר את התשובות הסבירות ביותר מבחינה סטטיסטית.

"אם אנחנו רוצים שבינה מלאכותית תשרת את החברה, לא רק יעילות, אנחנו צריכים לפנות מקום למורכבות, ניואנסים וגיוון", אמרה. "זה מה שריבוי עוסק בו – הגנה על כל ספקטרום החוויה האנושית בעולם המונע על ידי בינה מלאכותית".

המאמר גם מדגיש שתי דרכים מרכזיות לקדם ריבוי. ראשית, על ידי בניית תכונות בפלטפורמות בינה מלאכותית המאפשרות למשתמשים להגדיל בקלות את הגיוון בפלט – כגון התאמת "טמפרטורת" המודל, הגדרה המרחיבה את טווח התגובות שנוצרו. שנית, על ידי פיתוח אקוסיסטם של מערכות בינה מלאכותית מתחרות המציעות למשתמשים את היכולת לחפש "חוות דעת שנייה" ופרספקטיבות חלופיות.

שור-אופרי גם מדגישה את חשיבות האוריינות בבינה מלאכותית. "אנשים צריכים הבנה בסיסית של אופן הפעולה של מודלים של שפה גדולים ומדוע הפלט שלהם עשוי לשקף נקודות מבט פופולריות, ולא מאוזנות או מכלילות", אמרה. "מודעות זו יכולה לעזור למשתמשים לשאול שאלות המשך, להשוות תשובות, ולחשוב באופן ביקורתי יותר על המידע שהם מקבלים. זה מעודד אותם לראות בבינה מלאכותית לא כמקור אמת יחיד, אלא ככלי – כזה שהם יכולים להתנגד לו במרדף אחר ידע עשיר ופלורליסטי יותר".

היא משתפת פעולה עם ד"ר יונתן בלינקוב ועדיר רחמים ממחלקת מדעי המחשב בטכניון, ובר הורוביץ-אמסלם מהאוניברסיטה העברית, כדי ליישם רעיונות אלו בפועל.