וכלם מדברים על AI, כולם משתמשים ב-AI, והטכנולוגיה פורצת הדרך והטרנדית הגיעה גם לאולמות בתי המשפט, אבל בד בבד מתגלות לאט-לאט גם הסכנות שלה בתחום הזה. כי כאשר ה"הזיות" הידועות של כלי הבינה המלאכותית – אותם פרטים שגויים שהם ממציאים – מציגות לשופטים מידע מטעה או מידע שלא קיים, זה ממש לא טוב, וממש לא לטובת עורך הדין והלקוח שלו.
"אין ספק שהעתיד הוא בינה מלאכותית, ואין ספק שמי שלא ילמד לשלוט בכלי העבודה הזה ולהסתגל, יישאר מאחור, אבל נכון לעכשיו, בתחום המשפט, צר לי מאוד לומר שהמלך הוא עירום", אומר עו"ד גיא אופיר, בעלי משרד עורכי הדין גיא אופיר ושות', העוסק בדיני אינטרנט וטכנולוגיה. "מובן שבתוך כמה שנים זה ישתנה ב-180 מעלות, אבל כרגע הכלי הזה, במישור המשפטי ובפרט בעברית, הוא פרי לא בשל. גם אני מאוד התלהבתי מהכלים הזמינים – החינמיים ובתשלום – ובשנתיים האחרונות המשרד שלי נרשם ושילם עבור כמעט כל כלי בינה מלאכותית קיים.
"אלא שבסופו של דבר היקף השגיאות, הסילוף, הניתוח המוטעה, כה רב עד שנאלצתי לאסור על כל עובדיי את השימוש בבינה מלאכותית לצורך עריכת כתבי טענות (תביעות, תגובות, כתבי הגנה וכו', שמוגשים לבית משפט במסגרת תיק משפטי) או הכנת חוות דעת משפטית. אנחנו כן משתמשים בה לצורך יצירות גרפיות שיווקיות, או תרגום מסמכים לשפות זרות, אבל לא יותר מכך".
"תקופת ההתחשבות הסתיימה"
השימוש בחידושים טכנולוגיים לא פוסח על מערכת המשפט, ובתי משפט בעולם כבר עושים שימושים שונים ב-AI למשימות משפטיות או ניהוליות שבוצעו בעבר בידי בני אדם. למשל, במספר מדינות בארה"ב משתמשים במערכות מבוססות בינה מלאכותית לגיבוש הערכת מסוכנות של נאשמים. שימוש מושכל בהן עשוי גם להעשיר את הרקע לכתבי טענות, לספק להם תובנות נוספות, לשפר ניסוחים ולהצביע על קשיים וכשלים בטיעון המשפטי.
בינה מלאכותית משמשת גם, כפי שמסביר עו"ד אריאל דובינסקי, המתמחה בקניין רוחני ובינה מלאכותית, בתוכנות משפטיות ייעודיות המתמחות באיתור פסקי דין רלוונטיים וספרות מקצועית. הערך המוסף של התוכנות החדשות האלה הוא ביכולתן לאפשר חיפוש כללי יותר ופחות ממוקד, בניגוד לתוכנות מהדור הישן שהצריכו מיקוד ספציפי ומדויק.
אלא שבצד הייעול יש גם סיכון. הסכנה העיקרית היא שימוש בכלי AI ללא אימות המידע המשפטי שהם נותנים, וכתוצאה מכך שילוב טעויות או "המצאות" בחומרים המוגשים לבית המשפט. בשבוע האחרון נדרש בג"ץ להתייחס פעמיים למקרים שבהם אוזכרו בפניו פסיקות לא קיימות – כתוצאה מהסתייעות של עורכי דין בכלי בינה מלאכותית.
עו"ד אריאל דובינסקי: "כאשר מערכת ה–AI 'נתקלת בקיר' של ידע, היא נוטה להשלים פערים באמצעות יצירת מידע שנראה סבירש אך אינו קיים במציאות - כמו פסקי דין פיקטיביים"
במקרה הראשון השופטת גילה כנפי-שטייניץ דנה בעתירה ודחתה אותה בנימוק ש"אין עילת התערבות", אך התייחסה גם לכך שהתברר כי העתירה הסתמכה על פסקי דין "שלא היו ולא נבראו", ככל הנראה כתוצאה משימוש בכלי בינה מלאכותית. השופטת התייחסה לכך באריכות בפסק הדין, ובין היתר קבעה, כי "לעת הזו יש להדגיש כי שימוש שעושים עורכי דין בכלי בינה מלאכותית, אין משמעו כי הם יכולים להתפרק מאחריותם ומשיקול דעתם המקצועי. חובותיהם המקצועיות דורשות לעשות בטכנולוגיה זו שימוש אחראי, זהיר וביקורתי, להבין לעומקן את יכולותיה ומגבלותיה, ולהתעדכן מעת לעת בכל הנוגע לחולשותיה וחוזקותיה. בפרט, אין הם רשאים להגיש לבית המשפט כתבי בית דין שלא נבדקה אמינותם ודיוקם בדוק היטב".

השופטת נמנעה משימוש בסנקציה משפטית נגד העותרת בעקבות כך, מאחר ש"מדובר במקרה ראשון מסוגו שהובא לפתחו של בית משפט זה... ואולם מן הראוי כי במקרים עתידיים דומים, ובתנאים ההולמים זאת, יעשו בתי משפט שימוש בסמכויות הנתונות להם בכדי לשמור על טוהר ההליך המשפטי ותקינותו. אין זו זכות אלא חובה".
"המקרה העתידי" הגיע די מהר, ביום שישי: שופט העליון נעם סולברג דחה בשל "חוסר ניקיון כפיים" עתירה, לאחר שהתברר כי הסתמכה על מקורות משפטיים שלא קיימים, ואף חייב את העותרת בהוצאות משפט. השופט כינה את ההסתייעות בבינה מלאכותית, שגורמת לכך שעורכי דין מפנים את בית המשפט לפסקי דין מומצאים, "גל עכור". "גם אם עד כה נהג בית משפט זה סבלנות ומתינות בנושא, נוכח העובדה שמדובר בתופעה חדשה - לא לעולם חוסן. מעתה ואילך, יוחזקו העוסקים במלאכה כ'מוּתְרים ועומדים'; התגובה השיפוטית תשתנה בהתאם", קבע.

עו"ד דובינסקי: "המסר משני המקרים חד וברור – תקופת ההתחשבות בהיות הטכנולוגיה חדשה הסתיימה, והמערכת המשפטית עוברת מגישה מחנכת לגישה המחייבת אחריות מלאה. עורכי דין נדרשים להקפיד ביתר שאת על אימות מקורותיהם המשפטיים, שכן התוצאות של הסתמכות בלתי מבוקרת על תוצרי בינה מלאכותית הולכות ונעשות מוחשיות יותר. המעבר מאזהרה בלבד במקרה הראשון לחיוב בהוצאות במקרה השני מצביע על החמרה משמעותית בגישת בית המשפט. משמעותית במיוחד היא החלטת בית המשפט לפרסם את שמות עורכי הדין המעורבים, צעד שיוצר אפקט הרתעתי עוצמתי".
המקרים האלה מייצגים ככל הנראה רק חלק קטן מהתופעה. עו"ד דובינסקי: "העובדה שהכשלים התגלו דווקא בבית המשפט העליון עשויה לנבוע מבדיקת מקורות דווקנית ומושכלת יותר המתבצעת בערכאה הזו, בהשוואה לערכאות אחרות, אבל זו תופעה גלובלית – בתי משפט במדינות רבות מתמודדים עם מקרים דומים של 'הזיות בינה מלאכותית' בהליכים משפטיים".
לא יבשה הדיו על החלטת בג"ץ השנייה מיום שישי וכבר ביום ראשון השבוע הגיעה סוגיית ההסתמכות על הבינה המלאכותית לבית הדין האזורי לעבודה בתל-אביב, לאולמו של השופט דורי ספיבק. גם בתיק הזה התברר שהוגשו סיכומים מצד עורך הדין של התובע, הכוללים הפניות לפסקי דין שלא היו ולא נבראו, שהם כפי הנראה תוצאה של "הזיות" בינה מלאכותית. כתוצאה מכך ביקשה הנתבעת למחוק את התביעה, או לכל הפחות את הפרק המשפטי בסיכומי התובע שכולל את ההפניות לאותם פסקי דין לא קיימים. עורך הדין של התובע הסביר כי נפלה טעות בתום לב, שנבעה מכך שלאחר הכנת הסיכומים הם נמסרו למתמחה לצורך הוספת אסמכתאות משפטיות תומכות. המתמחה הוסיפה ציטוטים מפסקי דין שונים, אך הגישה את הסיכומים ישירות מבלי להחזירם לבדיקה נוספת של עורך הדין. לפיכך ביקש להגיש סיכומים מתוקנים.
השופט ספיבק ציין בהחלטתו: "אפילו אניח לטובת בא כוח התובע כי אכן מי שהוסיפה את פסקי הדין לסיכומיו – ככל הנראה תוך שימוש בכלי בינה מלאכותית זה או אחר – הייתה המתמחה שלו, ולא הוא עצמו, הרי שאין בכך כדי להסיר ממנו את האחריות המלאה למחדל". עם זאת, השופט לא נעתר לבקשה למחוק את התביעה וקיבל את הסיכומים לאחר שתוקנו, אך הטיל על התובע לשלם לנתבעת הוצאות בסך 4,000 שקל.
ד"ר אביב גאון: "אחת הבעיות הקשות של סטודנטים זה יכולות ניסוח ודיוק של טענות. בינה מלאכותית יכולה מאוד לסייע. הבעיה היא שלא מסבירים איך להשתמש במערכות האלו נכון"
במקרה ישן יותר, עורך דין הגיש לבית משפט השלום בנוף-הגליל תגובה לבקשה והציג בה ציטוטים מהחלטות בית המשפט העליון, שלא היו ולא נבראו. השופט כעס מאוד והעביר את המקרה לבחינת הלשכה המשפטית בהנהלת בתי המשפט. במקרה אחר עורך דין הגיש לבית משפט השלום בירושלים כתבי טענות שכללו פסקי דין מומצאים, ובית המשפט קבע כי עורך הדין הפר את חובותיו כלפי הלקוח, כלפי הצד שכנגד וכלפי בית המשפט.
תופעה נפוצה
ד"ר אביב גאון, מומחה למשפט וטכנולוגיה וחבר סגל בבית ספר הארי רדזינר למשפטים באוניברסיטת רייכמן, מעריך שבישראל התופעה נפוצה מאוד: "מובן שכמו בכל הטמעה של טכנולוגיה, אפשר להצביע על פרק זמן מסוים שבו אנשים קצת נרתעו ממנה, אבל אני מעריך שבשנה האחרונה, ועם ההתפתחות גם בהבנת העברית של הכלים האלה, ישנה מגמה של התעצמות בשימוש במערכות הללו. גם סטודנטים משתמשים בהן באופן אינטנסיבי, ומן הסתם זה גם גולש למתמחים במשרדים גדולים ולעורכי דין. עצם השימוש אינו שלילי בהכרח. הבעיה היא שלא מסבירים ומלמדים כיצד לעשות שימוש נכון, וגם לא מספיק מסבירים מה ההבדל בין היישומים השונים. ישנם למשל יישומים שמקפידים להשתמש בדאטה הקיים, ולא 'ממציאים' מקורות חדשים".
אירועים דומים מתרחשים כמובן גם בעולם. לכותרות הגיעו למשל שני מקרים שקרו במדינות ניו-יורק וקולורדו כבר בחודשים מאי ויוני בשנה שעברה, שבהם עורכי דין ניסחו כתבי טענות תוך שימוש ב-AI ושילבו בהם פסקי דין פיקטיביים. בעקבות זאת פירסמה לשכת עורכי הדין בישראל במאי גילוי דעת בנושא, והזהירה מהסתמכות לא מבוקרת על הטכנולוגיה הזו. הלשכה הדגישה שעורכי הדין מחויבים לוודא את אמינות הנתונים, ובנסיבות מסוימות אף לתת גילוי נאות לבית המשפט שהמידע שהם מציגים עובד על ידי מערכת בינה מלאכותית.
בשנה שעברה היו פרסומים בחו"ל על עורכי דין שעשו שימוש בכלי בינה מלאכותית על מנת לחסוך זמן בהכנת כתבי טענות, אולם לאחר שציטטו פסיקה לא קיימת הם פוטרו ונקנסו. בחודש שעבר פירסם ה"גרדיאן" כי עורך דין אוסטרלי הופנה לוועדת תלונות משפטיות, לאחר שהשתמש בבינה מלאכותית כדי לכתוב טיעונים במסמכים בתיק הגירה, וזו יצרה ציטוטים שלא היו קיימים.
עו"ד גיא אופיר: "ה-AI מייצרת קונספציה, וזה דוחף את המשתמש להתקבע עליה ולהימנע ממחקר ביקורתי של חלופות. אינטואיציה אנושית הכרחית גם בעריכת דין, וכרגע הבינה המלאכותית לא שם"
איפה האינטואיציה
עו"ד דובינסקי מסביר כי "הזיות" בכלי בינה מלאכותית הן תופעה מובנית שנובעת מאופן פעולתם. "מודלי שפה גדולים מייצרים טקסט על בסיס הסתברויות מילוליות, ולא על בסיס ידע מובנה ומאומת. כאשר המערכת 'נתקלת בקיר' של ידע, היא נוטה להשלים פערים באמצעות יצירת מידע שנראה סביר אך אינו קיים במציאות – כגון פסקי דין פיקטיביים או ציטוטים שגויים. האתגר הזה מהווה בעיה מרכזית עבור משפטנים בכל העולם, והפתרון טמון בעיקר בהכשרה נאותה ובאימות מידע קפדני. הכשלים האנושיים שמחמירים את הבעיה כוללים לחץ זמן, חוסר הבנה של מגבלות הטכנולוגיה, והסתמכות יתר על הטכנולוגיה ללא הפעלת שיקול דעת משפטי עצמאי".
עו"ד גיא אופיר מדבר על סכנה נוספת מעבר לסכנת ההזיות: הסללה מחשבתית. "הבינה המלאכותית מייצרת קונספציה, וזה דוחף את המשתמש להתקבע על הקונספציה, ולהימנע ממחקר ביקורתי של אופציות או טיעונים חלופיים. אינטואיציה אנושית היא דבר הכרחי גם בתחום עריכת הדין, וכרגע הבינה המלאכותית לא שם. לאחרונה הבחנו בפניות של לקוחות, אנשים צעירים, שהתקשרו בהסכמים עסקיים שהוכנו באמצעות בינה מלאכותית. היקף התאונות המשפטיות גדול".
מה הפתרון? "כעורך דין שמופיע רבות בבתי המשפט ומרצה על בינה מלאכותית, אני מקפיד לבדוק היטב ולהצליב מקורות משפטיים שנמסרים לי על ידי כלי הבינה המלאכותית", אומר עו"ד דובינסקי. "ואני ממליץ לעשות זאת בצוות, שכן עיניים נוספות עשויות לזהות פערים או סתירות שעלולים להיעלם מעיני המשתמש הבודד. זו חובה מקצועית ואתית".
לדברי ד"ר אביב גאון, יש צורך ב"חינוך, חינוך וחינוך. אני לא מאמין בחקיקה המגבילה טכנולוגיה", הוא אומר. "זה לא ישים ולא נכון. כל טכנולוגיה יכולה להיות בעלת השפעות שליליות והשפעות חיוביות. יש הרבה דברים נהדרים שאפשר לעשות. אחת הבעיות הקשות אצל סטודנטים זה יכולות ניסוח ודיוק של טענות. בינה מלאכותית יכולה מאוד לסייע בקיצור כתיבה ובפישוט של טענות. הבעיה היא שלא מסבירים איך להשתמש במערכות האלו נכון. אני בטוח שאם היו מסבירים לעורכי דין שהמערכת יכולה גם להמציא הפניות, הם היו נזהרים. אף אחד לא רוצה לצאת רשלן".