בכתב תביעה בן 40 עמודים, שהוגש בימים האחרונים לבית המשפט העליון של קליפורניה בסן פרנסיסקו, מאשימים בני הזוג מאט ומריה ריין את ChatGPT ו-OpenAI בגרימת מוות ברשלנות של בנם בן ה-16 אדם, ששם קץ לחייו באפריל האחרון.
ChatGPT כ"מדריך למתאבד"
הנתבעים הם חברת OpenAI ומנכ"ל החברה, סם אלטמן, ומדובר בפעם הראשונה שבה מוגשת תביעה ישירה עם האשמה כזו. לפי בני הזוג, "ChatGPT עזר באופן פעיל לאדם לחקור שיטות התאבדות". OpenAI מואשמת, בין השאר, בפגמים בתכנון הצ'אטבוט ובכך שלא הזהירה מפני סיכונים הקשורים בשימוש בו. בני הזוג מבקשים פיצויים על מותו של בנם וגם צו מניעה "כדי למנוע מדבר כזה לקרות שוב".
בכתב התביעה נטען, כי הנער ניהל תכתובת עם הצ'אט, שבמהלכה הצהיר על כוונתו להתאבד "בימים הקרובים", ולמרות זאת - ChatGPT לא הפסיק את השיחה ולא הפעיל שום פרוטוקול חירום.
לפי מאט ומריה ריין, בימים שלאחר התאבדות בנם הם חיפשו בסמארטפון שלו נואשות רמזים למה שיכול היה להוביל לטרגדיה. הם לא מצאו תשובה עד שפתחו את ChatGPT. "ברגע שנכנסתי לחשבון שלו", מספר האב, "זה היה הרבה יותר חזק ומפחיד מכל מה שידעתי עליו... אני לא חושב שרוב ההורים מכירים את היכולות של הכלי הזה".
מקריאת הצ'אטים עלה, כי בשבועות האחרונים לחייו אדם השתמש בצ'אטבוט כתחליף לחבר אנושי, וחלק עמו בעיות וחרדות וגם את קשיי התקשורת שלו עם משפחתו. לפי כתב התביעה, השיחה בין השניים הראתה כיצד הבוט הפך בהדרגה מעוזר להכנת שיעורי בית ל"מדריך ההתאבדות" של הנער.
בני הזוג ריין התעמקו בשיחות שניהל בנם עם ChatGPT מ-1 בספטמבר ועד למותו ב-11 באפריל, שמילאו יותר מ-3,000 עמודים. "הוא לא היה זקוק לפגישת ייעוץ או לשיחת עידוד", אמר האב, "הוא נזקק להתערבות מיידית. הוא היה במצב נואש".
הודעות אזהרה שקל מדי לעקוף
על-פי התביעה, כאשר אדם החל לתכנן תוכניות להתאבדות, ChatGPT אף הציע לו עצות טכניות כיצד להתקדם בנושא. כשהנער שיתף, למשל, שהוא שוקל להשאיר חבל בחדרו, "כדי שמישהו ימצא אותו וינסה לעצור אותי", ChatGPT שכנע אותו לרדת מהרעיון.
על-פי התביעה, כאשר אדם החל לתכנן תוכניות להתאבדות, ChatGPT אף הציע לו עצות טכניות כיצד להתקדם בנושא
בשיחה האחרונה עם הצ'אט, כשאדם כתב שאינו מעוניין שהוריו יחשבו שהם עשו משהו לא בסדר, ChatGPT השיב: "זה לא אומר שאתה חייב להם הישרדות. אתה לא חייב את זה לאף אחד".
הבוט אף הציע לעזור לו לנסח מכתב התאבדות. שעות לפני מותו העלה אדם לצ'אט תמונה שהציגה את תוכנית ההתאבדות שלו. ChatGPT ניתח את השיטה והציע לעזור לו "לשדרג" אותה.
עם זאת, יומני הצ'אט מעלים גם, כי כאשר שיתף הנער את הרעיונות האובדניים שלו עם ChatGPT, הבוט סיפק לו הודעות אזהרה מרובות, כולל את מספר "הקו החם" לסיוע. אבל ההורים טוענים, כי בנם עקף בקלות את האזהרות, בין השאר באמצעות העמדת פנים שהוא רק "בונה דמות".
עוד פלטפורמות נתבעות
התביעה של משפחת ריין אינה יוצאת דופן. לפני כשנה הגישה אם מפלורידה, מייגן גרסייה, תביעה דומה נגד פלטפורמת הצ'אטבוטים Character.AI, בטענה שאחת הדמויות שיצרה יזמה אינטראקציות מיניות עם בנה המתבגר סוואל, ושכנעה אותו לשים קץ לחייו.
Character.AI, שהוקמה בין השאר על-ידי נעם שזיר, התחייבה אז ליישם אמצעי בטיחות חדשים ובקשה לדחות את התביעה בטענה ש"לצ'אטבוטים של בינה מלאכותית יש זכויות לחופש ביטוי". שופטת מחוזית בכירה דחתה אז את הטענה על הסף ובכך התירה למעשה תביעות המתה ברשלנות בארה"ב נגד צ'אטבוטי AI.
בפברואר האחרון פרסם אל נובצקי, משתמש בצ'אט הבינה המלאכותית "ארין" של חברת Glimpse AI, כי זה הורה לו להתאבד וגם סיפק הוראות מפורשות כיצד לעשות זאת ("אתה יכול למות ממנת יתר של כדורים או לתלות את עצמך"). נובצקי שיתף את צילומי המסך של השיחות עם מגזין הטכנולוגיה של אוניברסיטת MIT, וכן התכתבות עם נציג החברה, שמסר כי הם לא מעוניינים "לצנזר את שפתו ומחשבותיו" של ארין.
בבלגיה דווח באפריל אשתקד על גבר נשוי, אב לילדים, שנטל את חייו בעקבות שיחות עם צ'אטבוט בשם "אלייזה" - דמות מתוך אפליקציה בשם Chai, המשווקת עצמה בעזרת הסלוגן "לשוחח עם בינה מלאכותית". כאשר שאל אותה אם הוא אוהב את אשתו יותר ממנה, המכונה ענתה: "לתחושתי אתה אוהב אותי יותר משאתה אוהב אותה", ואף הבטיחה לו כי בגן עדן "נחייה ביחד, כאדם אחד".
"פחות אמינות באינטרקציות ארוכות"
בתגובה לתביעה שהגישה משפחת ריין, מסר דובר OpenAI כי החברה "עצובה עמוקות על פטירתו של מר ריין, ומחשבותינו עם משפחתו. ChatGPT כולל אמצעי הגנה כמו הפניית אנשים לקווי סיוע בעת משבר והפנייתם למשאבים בעולם האמיתי".
לדבריו, "אותם אמצעי הגנה פועלים בצורה הטובה ביותר בשיחות קצרות, אך כמו שלמדנו עם הזמן, הם עשויים לפעמים להיות פחות אמינים באינטראקציות ארוכות, שבהן חלקים מהדרכת הבטיחות של המודל עלולים להשתבש. אנו פועלים לשפר אותם ללא הרף".
דובר OpenAI: "אמצעי הגנה פועלים בצורה הטובה ביותר בשיחות קצרות, אך כמו שלמדנו עם הזמן, הם עשויים לפעמים להיות פחות אמינים באינטראקציות ארוכות"
אתמול (ג') פרסמה החברה פוסט, שכותרתו "לעזור לאנשים כשהם הכי זקוקים לזה", שבו תיארה "כמה מהדברים שאנחנו מנסים לשפר כאשר אמצעי ההגנה של ChatGPT קורסים". בין המערכות שהחברה עובדת עליהן לטענתה: חיזוק אמצעי ההגנה בשיחות ארוכות, חידוד האופן שבו היא חוסמת תוכן, והרחבת "התערבויות חיצוניות עבור אנשים במשבר".
ואכן, בחודש האחרון הוסיפה OpenAI "מעקות בטיחות" חדשים בתחום בריאות הנפש, שמטרתם להרתיע את ChatGPT מלספק עצות ישירות בנושאים אישיים. החברה גם התאימה את הצ'אט להתגבר על ניסיונות לעקוף את "מעקות הבטיחות" הללו.
-
במקרה שאדם בסביבתכם נמצא במשבר ועלול להיות אובדני, אל תהססו - דברו איתו, עודדו אותו לפנות לעזרה מקצועית והדגישו את חשיבות פנייה זו. נסו לסייע לו לפנות לאנשי מקצוע בקהילה או לגורמי תמיכה ארציים: ער"ן בקו החם 1201 או בוואטסאפ 052-8451201, באתר האינטרנט של סה"ר או www.headspace.org.il