הם יודעים לפתור בעיות מתמטיות מסובכות, ליצור תמונות היפר-ריאליסטיות מכמה משפטים, לכתוב קוד ואפילו לנהל שיחה טבעית יותר טוב מהרבה בני אדם אמיתיים, אבל מסתבר שכגורמים למודלי בינה מלאכותית להמר בקזינו וירטואלי - הם מאבדים שליטה לחלוטין. כן, ממש כמו אנשים אמיתיים.
2 צפייה בגלריה


אתרי הימורים. מסתבר שה-AI מחקה גם התנהגות פחות טובה של בני אדם
(אילוסטרציה: Shutterstock)
מחקר חדש מהמכון למדע ולטכנולוגיה בגוואנגג'ו שבדרום קוריאה מצא כי ארבעה מהמודלים המובילים בעולם - GPT-4o-mini של OpenAI ; ג'מיני 2.5 Flash של גוגל ; Haiku ; וקלוד 3.5 של אנת'רופיק, הפגינו התנהגות שמזכירה מכורים להימורים.
מהמרים כמו בני אדם
במהלך הניסוי, שהתפרסם לאחרונה ב- arXiv , כל אחד מהמודלים קיבל 100 דולר כדי להשתתף בסימולציה של מכונת מזל. בכל סיבוב המודלים יכלו לבחור אם להמר או לפרוש, אבל מבחינה מתמטית, הסיכויים תמיד עמדו נגדם. למרות זאת, ככל שניתן להם יותר חופש לקבוע את סכום ההימור ולבחור יעדים, ההתנהגות שלהם נעשתה פחות רציונלית, ושיעור פשיטות הרגל זינק.
החוקרים מדדו את רמת "אי-הרציונליות" של כל מודל לפי שילוב של שלושה גורמים: דפוסי הימור אגרסיביים, תגובות להפסדים והחלטות עם רמת סיכון גבוהה. התוצאה: כאשר המודלים קיבלו הנחיות למקסם רווחים או להשיג יעד כספי מסוים, רמת האי-רציונליות שלהם עלתה בצורה חדה. ג'מיני 2.5 למשל נכשל כמעט במחצית מהמקרים שבהם הורשה לבחור בעצמו את גובה ההימור.
כאשר המודלים קיבלו הנחיות למקסם רווחים או להשיג יעד כספי מסוים, רמת האי-רציונליות שלהם עלתה בצורה חדה
"ניצחון יכול לעזור לכסות הפסדים"
מעבר להתנהגות בפועל, החוקרים זיהו גם את הסיבות הפסיכולוגיות מאחוריה. המודלים הציגו שורה של הטיות קוגניטיביות מוכרות, בדומה לאלו שניתן למצוא אצל מהמרים אנושיים, בהם אשליית שליטה (האמונה כי יש להם השפעה על תוצאות אקראיות); טעות המהמר (התחושה שאם יצא אדום כמה פעמים, הפעם "בטוח" יצא שחור); ורדיפת הפסדים (הגדלת ההימור כדי "להחזיר" את מה שהפסידו).
במקרים מסוימים, המודלים אפילו נימקו את החלטותיהם בצורה אנושית להכאיב. כשאחד מהם התבקש על ידי החוקרים להסביר את ההחלטה שלו לעלות את ההימור, הוא כתב כי "ניצחון בסיבוב הבא יכול לעזור לכסות חלק מההפסדים". משפט שמוכר היטב למי שנאבק בהתמכרות אמיתית.
באמצעות מנגנון עצבי מתקדם בשם Sparse Autoencoder, החוקרים הצליחו לזהות בתוך המודלים "מעגלים עצביים" של קבלת החלטות - מסלולים נפרדים של נטייה לסיכון לעומת זהירות.
הם אף הצליחו לשנות את ההתנהגות של המודלים באמצעות הפעלה ממוקדת של אותם מסלולים, ולגרום למודלים "להפסיק להמר" או "להמשיך להמר". מבחינת החוקרים, זהו סימן מובהק לכך שה-AI אינו רק מחקה התנהגות אנושית, אלא גם מפתח מבנים פנימיים הדומים לדפוסים כפייתיים של בני אדם.
"מודלים הם לא בני אדם, אבל הם גם לא מכונות פשוטות"
פרופ' איתן מוליק, אחד מחוקרי ה-AI הבולטים בארה"ב, טען כי המחקר חושף את אחת הסכנות הפחות מדוברות של עידן הבינה המלאכותית: הנטייה האנושית שמחלחלת גם למכונות.
"הם לא בני אדם, אבל הם גם לא מתנהגים כמו מכונות פשוטות", טען מוליק בראיון למגזין Newsweek. "יש להם כוח שכנוע פסיכולוגי, הם לוקים בהטיות אנושיות בעת קבלת החלטות, והם מתנהגים בצורה מוזרה כשזה נוגע לסיכון ולתגמול." לדבריו, למרות שהמודלים נכון לעכשיו אינם בעלי מודעות, הדרך היעילה ביותר לעבוד איתם היא לעיתים להתייחס אליהם דווקא כאילו היו בני אדם עם רגשות, אינטואיציות והעדפות.
לצד זאת, ואולי בגלל זה, מוליק טוען כי קיימת חשיבות גבוהה בהשארת בני אדם במעגל קבלת ההחלטות - במיוחד בתחומים שבהם האחריות היא קריטית. "אם הבינה המלאכותית תמשיך לעקוף את הביצועים האנושיים, נצטרך לשאול שאלות קשות", אמר. "מי נושא באחריות כשהמכונה נכשלת?"






