הרשות להגנת הפרטיות קיבלה אתמול (שלישי) פנייה שבמסגרתה היא מתבקשת לקבוע ‏הנחיה, ולפיה כל מעסיק ‏המשתמש במערכות ‏AI‏ כדי לנתח עובדים ולראיין מועמדים לעבודה, ‏יהיה אחראי לקיום החוק להגנת ‏הפרטיות, גם על ידי מערכת הבינה המלאכותית, וכי כל ‏מעסיק יהיה חייב לדרוש מה-‏AI‏ את קיום החוק להגנת ‏הפרטיות כתנאי לעבודה עימו.‏
במכתב שהועבר לרשות על ידי עו"ד גיא אופיר, המתמחה בדיני טכנולוגיה ובינה מלאכותית, ‏הוא מציין ‏שמדובר בתופעה מתרחבת, בעיקר בענף ההייטק, אבל גם בענפים אחרים. ‏
1 צפייה בגלריה
ביקשנו מ־ChatGPT להכין לנו איור בנושא: "ה־AI לוקח לבני האדם את העבודה". זאת התוצאה
ביקשנו מ־ChatGPT להכין לנו איור בנושא: "ה־AI לוקח לבני האדם את העבודה". זאת התוצאה
בינה מלאכותית (אילוסטרציה)
(איור: נוצר באמצעות בינה מלאכותית)
‏"בפועל התפתחה פרקטיקה בישראל בשנה האחרונה שחברות הייטק, כמו גם סקטורים ‏נוספים, דורשות ‏ממועמדים לעבודה לתת הסכמתם לסריקה, בחינה, אפיון, ניתוח וכיוצא בזה ‏על ידי מערכות בינה מלאכותית", מסביר אופיר במכתבו.‏
‏"מצב הדברים הוא שמערכות בינה מלאכותית עושות סריקה במרשתת וברשתות ‏החברתיות ‏ביסודיות, ומפיקות ניתוח מיקרו במהירות רבה - ניתוח שאם היה נעשה על ידי בני אנוש היה ‏אורך ‏עשרות שעות עבודה", הוא מוסיף. "למעשה, העובד עובר ניתוח של חייו, שנמצאים ‏במרשתת, באמצעות זכוכית מגדלת ‏וברזולוציה שלא הייתה קיימת בעבר עת שהיה נבחן בידי ‏בני אנוש".‏

מתועדים ונסרקים לפרטי פרטים

‏"אנחנו חיים בעידן מתועד", מסביר אופיר בשיחה עם ‏ynet‏. "כל מה שאנחנו אומרים, עושים, ‏או מגלים דעתנו ‏מתועד או על ידינו או על ידי אחרים, ואין לנו את היכולת למנוע את זה. עד ‏לאחרונה, בשל כמות המידע העצום ‏והיותו פאזל מורכב, יחסית היה קושי לבני אנוש לבנות ‏פרופיל חודרני על כל אחד מאיתנו. בעידן ה-‏AI‏ והביג ‏דאטה ניתן לנתח אנשים בעל כורחם, ‏לרבות היסטוריה חסויה ומוצנעת".‏
‏"מצב זה לא היה קיים בעבר", הוא מדגיש. "מתפתח ‏במהירות מצב שבו אדם טרם קבלתו ‏לעבודה נסרק ברמה החודרנית ביותר על ידי מערכות ‏AI‏".‏
עו"ד גיא אופירעו"ד גיא אופירצילום: יח"צ
עו"ד שיר שושני-כץ, שותפה במחלקת משפט וטכנולוגיה בפירמת עוה"ד ‏AYR‏ – עמר רייטר ‏ז'אן שוכטוביץ ‏ושות', מסייגת מעט את הדברים. היא מציינת שפרקטיקות פסולות בהליכי מיון ‏וגיוס עובדים היו יכולות להתקיים, ‏ולעיתים גם התקיימו, עוד לפני העלייה בשימוש בכלי ‏AI‏.‏
‏"לדעתי כדאי לראות בכלי בינה מלאכותית כשינוי של האמצעי ולא בהכרח של המהות", ‏מסבירה שושני-כץ. "שימוש אחראי בכלי בינה מלאכותית יכול להניב דברים נפלאים, לחסוך ‏בעלויות ולייעל תהליכים, ולכן חשוב להכיר את הדוקטרינות שהתפתחו בתחום הזה, ולעמוד ‏על יישומן בארגון".‏
אז צריך הסכמה או לא?‏ ‏"התחום של שימוש בכלי בינה מלאכותית במסגרת תהליך מיון של מועמדים לעבודה נשמע ‏על פניו נישתי, אבל בפועל דווקא הוא זה שקיבל את אחת ההתייחסויות הראשונות בעולם ‏בצורה של רגולציה מגובשת.‏
‏"כך למשל, בעיר ניו יורק חוקק כבר לפני כארבע שנים חוק שמחייב מעסיקים שמשתמשים ‏בכלי בינה מלאכותית במסגרת תהליכי מיון וגיוס עובדים, ועונים על קריטריונים מסוימים, ‏לערוך בדיקות הטיה שמטרתן למנוע אפליה ולנקוט בשקיפות בהקשר הזה, כולל פרסום ‏פומבי של תוצאות הבדיקות הללו".‏
באשר להסכמת העובד, לדעת שושני-כץ לא תמיד יהיה צורך בקבלת הסכמה כדי לעבד מידע ‏על מועמדים לעבודה באמצעות כלי בינה מלאכותית. "כמו הרבה שאלות בדיני הגנת ‏הפרטיות גם כאן התשובה היא – תלוי", היא אומרת. "יש עיבודי מידע שיצריכו קבלת הסכמה ‏מפורשת מהמועמד ויש עיבודי מידע שלא, כמו למשל עיבוד לצורך אבטחת מידע או עיבוד ‏לצורך עמידה בהוראות דין שחלות על המעסיק. התשובה הזאת נשארת זהה בין אם מדובר ‏בעיבוד של מידע אישי באמצעות כלי בינה מלאכותית ובין אם מדובר בעיבוד של מידע אישי ‏באמצעים אחרים".‏
‏"חשוב לזכור שהעובדה שמעסיק משתמש בכלי בינה מלאכותית לא בהכרח משנה את ‏המהות, ולמען האמת בהרבה מקרים היא לא תשנה את המהות", מדגישה שושני-כץ. ‏‏"חוקים שקשורים לקבלה לעבודה, כמו חוקי איסור אפליה, דיני הגנת הפרטיות או עקרונות ‏של שקיפות יחולו על המעסיק כשהוא משתמש בכלי בינה מלאכותית כחלק מתהליך המיון ‏והגיוס, בדיוק כפי שהם חלים עליו גם בפעילות שאיננה מתבצעת באמצעות כלי בינה ‏מלאכותית".‏
עורכות הדין שיר שושני-כץ ודורית בלר דה-ברעו"ד שיר שושני-כץצילום: ניר עמוס

הטיות ואפליה אפשרית

‏"מהפכת ה-‏AI‏ לא פסחה על הליכי גיוס עובדים ויותר ויותר חברות הכניסו כלי ‏AI‏ להליכי גיוסי ‏העובדים שלהן", מסביר עו"ד רמי לנדא, ראש מחלקת דיני עבודה ושותף במשרד מיתר. ‏‏"תיאורטית, על השימוש בכלי ‏AI‏ חלים בדיוק אותם כללים שחלים על איסוף 'ידני' של מידע על ‏מועמדים – האיסור לאסוף ולשקול מידע שאינו רלוונטי לתפקיד. בפועל, לאור העובדה ‏שאיסוף המידע נעשה בהליך אוטומטי עם שליטה שאינה מלאה של המעסיקה על האיסוף, ‏ולאור העובדה שנאסף מידע שברגיל היה קשה למצאו בכלים רגילים, מובא לידיעת ‏המעסיקה, בסופו של הליך החיפוש, מידע רב שאינו נוגע ישירות לתפקיד, ואשר בסבירות ‏גבוהה יכול לגרום לאפליה אסורה ולעיתים באופן שאינו מודע.‏
‏"כאשר המעסיקה נחשפת למידע, הכולל אלמנטים מפלים, כגון מוצא, לאום, דת, גיל, הורות, ‏כתובת מגורים וכיו"ב – שכולם שיקולים שאינם רלוונטיים לתפקיד – קשה לה מאד להתעלם ‏מאותו מידע מפלה".‏
עו"ד רמי לנדאעו"ד רמי לנדאצילום: תומר יעקובסון
איסוף מידע פומבי על מועמדים (ביצוע של חיפוש גוגל על שמם למשל) אינו משהו חדש, ‏ומעסיקים עושים זאת ‏כבר הרבה שנים. ‏‏"החידוש כאן הוא בכך שהחיפוש הזה נעשה על ידי מנוע חזק ומתוחכם יותר, שגם מתיימר ‏‏לעבד את המידע ולנתח אותו", מסבירה עו"ד שירה להט, שותפה מובילה בדיני עבודה ‏במשרד ארנון, תדמור ‏לוי. "לבינה מלאכותית יש הטיות שעלולות לחשוף את המעסיקים ‏לתביעות, בעיקר בהיבט של שוויון הזדמנויות ‏בעבודה".‏
‏"כולנו צריכים לזכור שהאינטרנט לא שוכח ושכל מה שאנחנו מפרסמים גלוי לכולם, כך ‏שמהצד השני קשה לטעון לפגיעה בפרטיות בגין מידע שאנחנו עצמנו בחרנו לפרסם באופן ‏גלוי באינטרנט", מציינת להט. "האתגר הוא בעיבוד וניתוח המידע, שלו המועמדים צריכים ‏להסכים.‏
‏"הם צריכים להבין שהם נותנים הסכמה למעין ניתוח פסיכולוגי שלהם שמבוסס רק על מידע ‏חלקי שגלוי לכולם. אני חושבת שההסכמה שהמועמדים נדרשים לתת כאן היא מאוד בעייתית ‏‏– מראש הסכמה במסגרת של יחסי עבודה היא בעייתית לאור פערי הכוחות בין הצדדים, ולכן ‏במקרים רבים יש דרישה להסכמה מפורשת, בכתב, תוך פירוט זכויות העובד. במקרה של ‏מועמד לעבודה, זו לא יכולה להיות הסכמה כנה ואותנטית כשהמועמד מבין שהקבלה שלו ‏לעבודה מותנית בזה".‏
‏"השימוש בבינה מלאכותית לסינון של קורות חיים או לניהול אוטומטי של הליכי קבלה טכניים ‏יותר הוא יותר מקובל, ויש בו פחות קושי משפטי", מסבירה להט. "ברגע שאנחנו מבקשים ‏מהבינה המלאכותית לעשות ניתוח מעין פסיכולוגי של מועמדים והמידע שנאסף אודותיהם, ‏צריכים לחול הכללים שחלים על מכוני מיון, שמבצעים ניתוח כזה על מועמדים לבקשת ‏המעסיקים. רק שבמקרה של הבינה המלאכותית אין למועמד שליטה על המידע שמועבר ‏אליה ונמסר לה".‏
אספקט נוסף שבו הבינה המלאכותית עלולה לחשוף את המעסיק לתביעות קשור לחריגה ‏משפטית אחרת. "החוק אוסר לרוב (למעט במקצועות שיש בהם היתר לכך) על מעסיק לשאול ‏מועמד לעבודה לגבי ההרשעות או העבר הפלילי שלו, ואוסר לבקש תעודת יושר", מסבירה ‏להט. "אם הבינה המלאכותית תאסוף את המידע הזה ותתחשב בו בקבלת ההחלטה שלה, ‏היא עלולה לחשוף את המעסיק לתביעה על הפרת החוק".‏
‏"כמובן שיש כאן גם פגיעה בפרטיות של המועמדים, ולכן במדינות רבות בעולם הסדירו ‏והגבילו את האפשרות להשתמש בבינה מלאכותית לצרכים האלה", היא מוסיפה.‏
עו"ד שירה להטעו"ד שירה להטצילום: ניקי וסטפהל
להט מביאה להמחשת דבריה תביעה שהגיש אזרח אפרו-אמריקני בן יותר מ-40 בארה"ב ‏נגד חברה שאליה ‏הגיש מועמדות, ובה הוא טוען שכלים מבוססי בינה מלאכותית הפלו אותו ‏לרעה בגלל נתוני הבסיס שלו. "בחודש האחרון דחה בית המשפט בארה"ב את הבקשה ‏לסלק את התביעה על הסף", מציינת להט. "כעת היא ‏ממשיכה להתנהל כתביעה ייצוגית".‏
מהרשות להגנת הפרטיות נמסר כי פנייתו של עו"ד גיא אופיר אשר התקבלה אתמול אחה"צ ‏ברשות, תיבחן ותיענה כפי שנהוג בכל פנייה המתקבלת ברשות. "מבלי להתייחס קונקרטית ‏לתוכן הפנייה, יובהר כי הוראות חוק הגנת הפרטיות חלות ככלל גם על כל פעולה של עיבוד ‏מידע אישי, לרבות, מיון מועמדים בתהליכי קבלה לעבודה באמצעות מערכות בינה ‏מלאכותית", נמסר בתגובה. "יצוין כי הרשות פרסמה לאחרונה טיוטת הנחייה בנושא שימוש ‏בטכנולוגיות בינה מלאכותית, גילוי דעת בנושא קבלת הסכמה בדיני הגנת פרטיות, וכן שורה ‏של מסמכים בנושא הגנה על פרטיות עובדים.‏
‏"הרשות פועלת לאכיפת הוראות הדין, בין היתר, בנושאים אלו ותשקול לעשות שימוש ‏בסמכויותיה כלפי מי שיפר את החוק, בהתאם לשיקול דעתה ולנסיבותיו של כל מקרה".‏
פורסם לראשונה: 05:50, 30.07.25