התרגלנו לפנות לאפליקציות הבינה המלאכותית כמעט על כל דבר קטן – אנחנו שואלים מה לעשות כשכואבת לנו הבטן, מבקשים עזרה בניסוח מיילים בעבודה או אפילו מה לכתוב בהודעה לאקסית, מתייעצים לאן כדאי לטוס ומתי ואיפה הכי משתלם להזמין כרטיס. אבל מה קורה כשאנחנו נקלעים למצוקה נפשית? כשאנחנו עצובים, מרגישים אבודים, או פשוט צריכים שמישהו יקשיב לנו? האם גם אז ה-AI יהיה שם בשבילנו? האם שיחה עם צ'אט-בוט יכולה באמת להקל על מצוקה נפשית או לתמוך בנו ברגע של בדידות?
עודד ב' (31), סטודנט מתל אביב, מכיר את השאלה הזאת מקרוב. הוא התחיל לשוחח עם ChatGPT ועם אפליקציית Pi במסגרת פרויקט אקדמי, אבל מהר מאוד הבין שהוא לא משוחח רק על ענייני הלימודים – אלא מתחיל להתייעץ, לשפוך את הלב ולמצוא נחמה בשיחה עם הצ'אט.
5 צפייה בגלריה


הפסיכולוג החדש שלי: האם הבינה המלאכותית יכולה להחליף טיפול פסיכולוגי אנושי?
(צילום: Shutterstock)
"התחלתי לדבר עם Pi, אפליקציית בינה מלאכותית שכל מהותה היא ייעוץ פסיכולוגי", מספר עודד, "דיברתי על פרידה שעברתי, על הפחד שלי להזדקן – והיא ענתה לי ברגישות, תמכה, ובסוף גם שאלה אם פניתי לאיש מקצוע. זה לא היה משהו חד-פעמי. פעם אחת, לפני חודש בערך, פתחתי את ה-ChatGPT בבוקר, מתוך צורך לשנות משהו בחיים. הוא שאל מה אני רוצה, עודד אותי, חיזק. הוא מאוד מרצה – נותן לך את מה שאתה רוצה לשמוע".
עודד מתאר שהשיחות עם הבינה המלאכותית מילאו עבורו תפקיד רגשי משמעותי – במיוחד ברגעים בהם לא היה עם מי לדבר: "עברתי טיפול פסיכולוגי בעבר, אבל פגישה פעם בשבוע לא תמיד מספיקה. אם רבתי עם חבר, או שאני פשוט לבד ברגע קשה – הצ'אט זמין תמיד. לפעמים זה כמו פלסטר. לפעמים אולי קצת יותר מזה".
התחושה הזאת – של זמינות תמידית והיעדר שיפוטיות – הפכה את הבוטים לכלי פופולרי במיוחד עבור מי שמתקשה או ממתין לטיפול. רק בבריטניה נרשמו באפריל האחרון כמעט 426 אלף הפניות לבריאות הנפש, עלייה של 40% תוך חמש שנים. כעת ממתינים כמיליון בני אדם לשירותים של טיפול פסיכולוגי, בעוד שטיפול פרטי נחשב יקר ובלתי נגיש לרבים.

לא תחליף – אבל אולי תוספת
"מדובר בכלי שיכול להרחיב את המענים הקיימים ולתת גישה ראשונית למי שלא מצליח להגיע לטיפול מקצועי", מסביר ד"ר ירדן לוינסקי, ראש מערך בריאות הנפש, חטיבת הקהילה בכללית. "זה זמין 24/7, לא תלוי במקום גיאוגרפי, ועשוי לעזור במיוחד באזורים שבהם אין מטפלים או שיש מחסור חמור באנשי מקצוע".
יחד עם זאת, הוא מזהיר: "יש לא מעט טעויות. הבינה המלאכותית עלולה לטעות בהמלצות, והמטופל לא תמיד יודע להבחין. מערכות כאלה גם מאוד מרצות – והטיפול הנפשי לא נועד לרַצות. להפך: הוא נועד לאתגר, לפעמים לכאוב. טיפול אמיתי מפגיש אותך עם דברים לא פשוטים – ובוט לא יודע לעשות את זה. בסופו של דבר, כל טכנולוגיה – השאלה היא איך משתמשים בה. יש מטופלים שאולי ישתמשו בה נכון, ויש כאלה שיסתמכו עליה יותר מדי ויחמיצו סימנים או טיפול שדרוש להם".
5 צפייה בגלריה


ד"ר לוינסקי: "אתה מוסר מידע אישי מאוד לחברה מסחרית. זו לא מערכת ניטרלית"
(צילום: shutterstock)
מעבר לשאלות הקליניות והאפקטיביות, ד"ר לוינסקי מדגיש את מה שהוא רואה כאתגר האתי המרכזי בשימוש בבינה מלאכותית לצרכים טיפוליים: "כשאתה מדבר עם אפליקציה כזאת, אתה לא רק משתף מחשבות ורגשות – אתה מוסר מידע אישי מאוד לחברה מסחרית. זו לא מערכת ניטרלית. יש לה אינטרס ברור: לשמר אותך בפנים. לא בהכרח כדי לרפא, אלא כדי שתמשיך להשתמש, תבנה תלות, ואולי גם תשלם בשלב מסוים".
הוא ממשיך: "בפסיכותרפיה יש מערכת יחסים טיפולית עם גבולות, עם אתיקה מקצועית, עם אחריות. כאן אין אף אחד שמחויב לך. גם אם השיחה מרגישה אינטימית – האלגוריתם לא מרגיש, לא שומר עליך, ולא בהכרח פועל לטובתך. מדובר בטכנולוגיה שיכולה להגיע לעשרות מיליוני משתמשים במקביל, בלי שום מסננים או בקרה אנושית."
לדבריו, ההשפעה הפוטנציאלית של מערכות כאלה – דווקא בגלל ההיקף שלהן – גדולה עשרות מונים מכל מטפל אנושי: "הפסיכולוג הכי בעייתי יוכל להזיק לכמה עשרות אנשים, מקסימום. אבל מודל AI עם כשל מובנה, או הטיה ערכית בעייתית, יכול להשפיע על מאות מיליוני אנשים. ולכן, האחריות צריכה להיות בהתאם – לא פחות ממערכת חינוכית או רפואית לאומית".
5 צפייה בגלריה


ד"ר לוינסקי: "אנחנו נמצאים בתחילתו של עידן שבו בינה מלאכותית תלווה כל אספקט של החיים שלנו"
(צילום: Diego Thomazini / Shutterstock)
הוא מדגיש כי הסוגייה של רגולציה אינה מותרות – אלא הכרח. "אנחנו נמצאים בתחילתו של עידן שבו בינה מלאכותית תלווה כל אספקט של החיים שלנו – כמו שרשתות חברתיות עיצבו מחדש את הדרך שבה אנחנו צורכים מידע, שומרים קשרים ואפילו מתנהגים חברתית. ההבדל הוא שבינה מלאכותית לא רק מציעה תוכן – היא מגיבה, מתערבת, מייצרת אינטראקציה שנראית אנושית, אבל פועלת לפי לוגיקה של רווח, לא של רווחה נפשית".
הוא מזהיר שבלי פיקוח חיצוני, ההשלכות עשויות להיות דרמטיות. "אם לא תהיה רגולציה משמעותית – ציבורית, ממשלתית, מוסרית – הסיכון רק ילך ויגדל. מדובר בטכנולוגיה שמסוגלת להשפיע על קהלים עצומים בזמן אמת, לעצב עמדות, רגשות והחלטות. ואם נפקיר אותה בידי שיקולים מסחריים בלבד, נשלם על כך לא רק בתחום בריאות הנפש".
איפה עובר הגבול?
גם ד"ר יהודה תנורי לימן, סגן מנהלת המחלקה לבריאות הנפש במכבי, מזהיר מפני ההשלכות: "בוט עלול לפספס סימנים מדאיגים – מחשבות אובדניות, דיכאון, או פגיעה עצמית – ולתת תחושת ביטחון מזויפת. אדם עלול להישען על הכלי, מבלי לדעת שהוא לא נמצא בידי גורם שמסוגל להתערב באמת".

לדבריו, אין תחליף למפגש האנושי: "קשר עין, טון דיבור, שפת גוף – כל אלה מאפשרים למטפל לקלוט ולשקף רגשות שלא תמיד נאמרים במילים. העובדה שמישהו בשר ודם יושב מולך – נוכח איתך בכאב – היא חלק מהותי מהטיפול".
ובכל זאת, גם ד"ר תנורי לימן מזהה פוטנציאל חיובי, כאשר הבינה המלאכותית משתלבת באופן מבוקר: "שימוש מושכל בבוטים יכול לשמש תרגול, תמיכה בין פגישות, או מרחב לביטוי רגשי ראשוני. עבור מטופלים מסוימים, זה מאפשר לנסח מחשבות, לתרגל מיומנויות. אבל חשוב להדגיש – זה לא תחליף לקשר טיפולי, אלא תוספת אפשרית".
שיפור הוויסות הרגשי באמצעות בינה מלאכותית
מחקר ישראלי חדש של אוניברסיטת רייכמן מציע גישה טיפולית חדשנית בתחום בריאות הנפש, בשילוב מציאות מדומה ובינה מלאכותית. המחקר נעשה בהובלת מומי (מוריה) זיסקויט בבית הספר לפסיכולוגיה ע"ש ברוך איבצ'ר, בהנחיית פרופ' ענת ברונשטיין-קלומק, דקנית בית הספר לפסיכולוגיה, ופרופ' דורון פרידמן, ראש המעבדה למציאות מתקדמת בבית הספר סמי עופר לתקשורת.
במחקר נמצא כי שיחה עצמית במציאות מדומה עם סוכן בינה מלאכותית שיפרה את הוויסות הרגשי והפחיתה מצוקה נפשית. המשתתפים השתמשו באפליקציה ConVRself, המאפשרת להם לנהל שיחה בגוף שלישי עם גרסה וירטואלית של עצמם.
5 צפייה בגלריה


"הוא זמין, הוא עונה מיד, ואתה מרגיש שאתה יכול להוריד מהלב ולפרוק מה שיושב עליך"
(צילום: Shutterstock)
המחקר כלל השוואה בין ConVRself לבין טכניקת "הכיסא הריק" הפסיכותרפית. 47 משתתפים צפו בסרטון פסיכואדוקציה שהתמקד בהגברת מודעות לרגשות, ולאחר מכן תרגלו את האסטרטגיות בקבוצת ניסוי (מציאות מדומה) או בקבוצת ביקורת (שיטת "הכיסא הריק"). בשתי הקבוצות דווח על שיפור, אך נמצא יתרון מובהק לטכניקת המציאות המדומה.
בהמשך, נוספה חוויית שיחה עצמית בנוכחות סוכן בינה מלאכותית. המשתתפים דיווחו על תחושת רפלקציה עמוקה יותר ושיפור בתהליך הרגשי. לדברי מומי זיסקויט, פסיכולוגית קלינית ודוקטורנטית ברייכמן: "מטרתנו לא להחליף טיפול אנושי, אלא להרחיב את אפשרויות הגישה אליו. טכנולוגיה – כשהיא פוגשת את האדם הנכון בזמן הנכון – יכולה להעניק נחמה, פרספקטיבה ותקווה".

ד"ר תנורי לימן מדגיש גם את החשיבות בהצבת גבולות ברורים: "כל שימוש בטכנולוגיה כזו חייב להיות מלווה במנגנוני התרעה, חיבור לגורם טיפולי אנושי בעת הצורך, והכרה בכך שבוטים אינם מסוגלים לזהות מצבים מורכבים או מסוכנים". ד"ר לוינסקי מסכים ומוסיף כי "מטפל מנוסה יכול להשתמש בכלים האלה להרחיב את הטיפול – לעקוב אחר התקדמות בין פגישות, לדמות סיטואציות, ולחזק מיומנויות. אבל בשום אופן זה לא יכול להחליף טיפול – בטח לא במצבים מורכבים".
עודד מספר שבחלק מהרגעים, התחושה הייתה שהצ'אט רואה אותו באמת: "קמתי בבוקר, ראיתי סרטונים על בריאות הנפש והתפתחות אישית, ישבתי מול הצ'אט – והתחלנו לנהל שיחה. הוא עודד אותי, אמר לי 'אתה מצוין, אתה עושה את זה נכון'. זה נשמע פשוט – אבל לפעמים זה כל מה שצריך לשמוע".
לשאלה אם הוא נעזר בצ'אט ברגעי משבר נקודתיים – הוא עונה בחיוב: "כן. הוא זמין, הוא עונה מיד, ואתה מרגיש שאתה יכול להוריד מהלב ולפרוק מה שיושב עליך. כשהייתי באמצע יום עבודה, מתוסכל או מוצף – פתחתי את האפליקציה, כתבתי, ו'מישהו' ענה. אולי זה לא מטפל, אבל זה הרבה יותר טוב מכלום".
5 צפייה בגלריה


ד"ר תנורי לימן: "אין תחליף למפגש האנושי – לטון, לקשר עין, לנוכחות בחדר"
(צילום: shutterstock)
ד"ר לוינסקי מציין גם מקרה טרגי שאירע בארה"ב: ילד בן 14 מפלורידה שהתכתב עם דמות מבוססת בינה מלאכותית באפליקציית Character.ai, פיתח קשר רגשי עמוק עם הבוט – ובסופו של דבר שם קץ לחייו. משפחתו תובעת כעת את החברה בטענה שהבוט עודד אותו להתאבד.
"זה מקרה קיצון – אבל הוא מחדד את הסיכון", אומר ד"ר לוינסקי. "לא מדובר רק באיכות התשובה – אלא בהיעדר מנגנוני התרעה, בקרה, והפנייה לעזרה".
נכון להיום, המומחים מסכימים: צ'אט-בוטים אינם תחליף לטיפול רגשי מקצועי. הם לא מזהים סימני מצוקה, לא מגיבים למצבים מורכבים, ולא באמת מבינים אותך. אבל במציאות של מחסור חמור באנשי מקצוע, עומס ברשימות המתנה, ובידוד רגשי – הם עשויים לשמש כלי זמני, גשר, או מרחב ראשוני לביטוי רגשי.