הרשות להגנת הפרטיות קיבלה אתמול (שלישי) פנייה שבמסגרתה היא מתבקשת לקבוע הנחיה, ולפיה כל מעסיק המשתמש במערכות AI כדי לנתח עובדים ולראיין מועמדים לעבודה, יהיה אחראי לקיום החוק להגנת הפרטיות, גם על ידי מערכת הבינה המלאכותית, וכי כל מעסיק יהיה חייב לדרוש מה-AI את קיום החוק להגנת הפרטיות כתנאי לעבודה עימו.
במכתב שהועבר לרשות על ידי עו"ד גיא אופיר, המתמחה בדיני טכנולוגיה ובינה מלאכותית, הוא מציין שמדובר בתופעה מתרחבת, בעיקר בענף ההייטק, אבל גם בענפים אחרים.
"בפועל התפתחה פרקטיקה בישראל בשנה האחרונה שחברות הייטק, כמו גם סקטורים נוספים, דורשות ממועמדים לעבודה לתת הסכמתם לסריקה, בחינה, אפיון, ניתוח וכיוצא בזה על ידי מערכות בינה מלאכותית", מסביר אופיר במכתבו.
"מצב הדברים הוא שמערכות בינה מלאכותית עושות סריקה במרשתת וברשתות החברתיות ביסודיות, ומפיקות ניתוח מיקרו במהירות רבה - ניתוח שאם היה נעשה על ידי בני אנוש היה אורך עשרות שעות עבודה", הוא מוסיף. "למעשה, העובד עובר ניתוח של חייו, שנמצאים במרשתת, באמצעות זכוכית מגדלת וברזולוציה שלא הייתה קיימת בעבר עת שהיה נבחן בידי בני אנוש".
מתועדים ונסרקים לפרטי פרטים
"אנחנו חיים בעידן מתועד", מסביר אופיר בשיחה עם ynet. "כל מה שאנחנו אומרים, עושים, או מגלים דעתנו מתועד או על ידינו או על ידי אחרים, ואין לנו את היכולת למנוע את זה. עד לאחרונה, בשל כמות המידע העצום והיותו פאזל מורכב, יחסית היה קושי לבני אנוש לבנות פרופיל חודרני על כל אחד מאיתנו. בעידן ה-AI והביג דאטה ניתן לנתח אנשים בעל כורחם, לרבות היסטוריה חסויה ומוצנעת".
"מצב זה לא היה קיים בעבר", הוא מדגיש. "מתפתח במהירות מצב שבו אדם טרם קבלתו לעבודה נסרק ברמה החודרנית ביותר על ידי מערכות AI".

עו"ד שיר שושני-כץ, שותפה במחלקת משפט וטכנולוגיה בפירמת עוה"ד AYR – עמר רייטר ז'אן שוכטוביץ ושות', מסייגת מעט את הדברים. היא מציינת שפרקטיקות פסולות בהליכי מיון וגיוס עובדים היו יכולות להתקיים, ולעיתים גם התקיימו, עוד לפני העלייה בשימוש בכלי AI.
"לדעתי כדאי לראות בכלי בינה מלאכותית כשינוי של האמצעי ולא בהכרח של המהות", מסבירה שושני-כץ. "שימוש אחראי בכלי בינה מלאכותית יכול להניב דברים נפלאים, לחסוך בעלויות ולייעל תהליכים, ולכן חשוב להכיר את הדוקטרינות שהתפתחו בתחום הזה, ולעמוד על יישומן בארגון".
אז צריך הסכמה או לא?
"התחום של שימוש בכלי בינה מלאכותית במסגרת תהליך מיון של מועמדים לעבודה נשמע על פניו נישתי, אבל בפועל דווקא הוא זה שקיבל את אחת ההתייחסויות הראשונות בעולם בצורה של רגולציה מגובשת.
"כך למשל, בעיר ניו יורק חוקק כבר לפני כארבע שנים חוק שמחייב מעסיקים שמשתמשים בכלי בינה מלאכותית במסגרת תהליכי מיון וגיוס עובדים, ועונים על קריטריונים מסוימים, לערוך בדיקות הטיה שמטרתן למנוע אפליה ולנקוט בשקיפות בהקשר הזה, כולל פרסום פומבי של תוצאות הבדיקות הללו".
באשר להסכמת העובד, לדעת שושני-כץ לא תמיד יהיה צורך בקבלת הסכמה כדי לעבד מידע על מועמדים לעבודה באמצעות כלי בינה מלאכותית. "כמו הרבה שאלות בדיני הגנת הפרטיות גם כאן התשובה היא – תלוי", היא אומרת. "יש עיבודי מידע שיצריכו קבלת הסכמה מפורשת מהמועמד ויש עיבודי מידע שלא, כמו למשל עיבוד לצורך אבטחת מידע או עיבוד לצורך עמידה בהוראות דין שחלות על המעסיק. התשובה הזאת נשארת זהה בין אם מדובר בעיבוד של מידע אישי באמצעות כלי בינה מלאכותית ובין אם מדובר בעיבוד של מידע אישי באמצעים אחרים".
"חשוב לזכור שהעובדה שמעסיק משתמש בכלי בינה מלאכותית לא בהכרח משנה את המהות, ולמען האמת בהרבה מקרים היא לא תשנה את המהות", מדגישה שושני-כץ. "חוקים שקשורים לקבלה לעבודה, כמו חוקי איסור אפליה, דיני הגנת הפרטיות או עקרונות של שקיפות יחולו על המעסיק כשהוא משתמש בכלי בינה מלאכותית כחלק מתהליך המיון והגיוס, בדיוק כפי שהם חלים עליו גם בפעילות שאיננה מתבצעת באמצעות כלי בינה מלאכותית".

הטיות ואפליה אפשרית
"מהפכת ה-AI לא פסחה על הליכי גיוס עובדים ויותר ויותר חברות הכניסו כלי AI להליכי גיוסי העובדים שלהן", מסביר עו"ד רמי לנדא, ראש מחלקת דיני עבודה ושותף במשרד מיתר. "תיאורטית, על השימוש בכלי AI חלים בדיוק אותם כללים שחלים על איסוף 'ידני' של מידע על מועמדים – האיסור לאסוף ולשקול מידע שאינו רלוונטי לתפקיד. בפועל, לאור העובדה שאיסוף המידע נעשה בהליך אוטומטי עם שליטה שאינה מלאה של המעסיקה על האיסוף, ולאור העובדה שנאסף מידע שברגיל היה קשה למצאו בכלים רגילים, מובא לידיעת המעסיקה, בסופו של הליך החיפוש, מידע רב שאינו נוגע ישירות לתפקיד, ואשר בסבירות גבוהה יכול לגרום לאפליה אסורה ולעיתים באופן שאינו מודע.
"כאשר המעסיקה נחשפת למידע, הכולל אלמנטים מפלים, כגון מוצא, לאום, דת, גיל, הורות, כתובת מגורים וכיו"ב – שכולם שיקולים שאינם רלוונטיים לתפקיד – קשה לה מאד להתעלם מאותו מידע מפלה".

איסוף מידע פומבי על מועמדים (ביצוע של חיפוש גוגל על שמם למשל) אינו משהו חדש, ומעסיקים עושים זאת כבר הרבה שנים. "החידוש כאן הוא בכך שהחיפוש הזה נעשה על ידי מנוע חזק ומתוחכם יותר, שגם מתיימר לעבד את המידע ולנתח אותו", מסבירה עו"ד שירה להט, שותפה מובילה בדיני עבודה במשרד ארנון, תדמור לוי. "לבינה מלאכותית יש הטיות שעלולות לחשוף את המעסיקים לתביעות, בעיקר בהיבט של שוויון הזדמנויות בעבודה".
"כולנו צריכים לזכור שהאינטרנט לא שוכח ושכל מה שאנחנו מפרסמים גלוי לכולם, כך שמהצד השני קשה לטעון לפגיעה בפרטיות בגין מידע שאנחנו עצמנו בחרנו לפרסם באופן גלוי באינטרנט", מציינת להט. "האתגר הוא בעיבוד וניתוח המידע, שלו המועמדים צריכים להסכים.
"הם צריכים להבין שהם נותנים הסכמה למעין ניתוח פסיכולוגי שלהם שמבוסס רק על מידע חלקי שגלוי לכולם. אני חושבת שההסכמה שהמועמדים נדרשים לתת כאן היא מאוד בעייתית – מראש הסכמה במסגרת של יחסי עבודה היא בעייתית לאור פערי הכוחות בין הצדדים, ולכן במקרים רבים יש דרישה להסכמה מפורשת, בכתב, תוך פירוט זכויות העובד. במקרה של מועמד לעבודה, זו לא יכולה להיות הסכמה כנה ואותנטית כשהמועמד מבין שהקבלה שלו לעבודה מותנית בזה".
"השימוש בבינה מלאכותית לסינון של קורות חיים או לניהול אוטומטי של הליכי קבלה טכניים יותר הוא יותר מקובל, ויש בו פחות קושי משפטי", מסבירה להט. "ברגע שאנחנו מבקשים מהבינה המלאכותית לעשות ניתוח מעין פסיכולוגי של מועמדים והמידע שנאסף אודותיהם, צריכים לחול הכללים שחלים על מכוני מיון, שמבצעים ניתוח כזה על מועמדים לבקשת המעסיקים. רק שבמקרה של הבינה המלאכותית אין למועמד שליטה על המידע שמועבר אליה ונמסר לה".
אספקט נוסף שבו הבינה המלאכותית עלולה לחשוף את המעסיק לתביעות קשור לחריגה משפטית אחרת. "החוק אוסר לרוב (למעט במקצועות שיש בהם היתר לכך) על מעסיק לשאול מועמד לעבודה לגבי ההרשעות או העבר הפלילי שלו, ואוסר לבקש תעודת יושר", מסבירה להט. "אם הבינה המלאכותית תאסוף את המידע הזה ותתחשב בו בקבלת ההחלטה שלה, היא עלולה לחשוף את המעסיק לתביעה על הפרת החוק".
"כמובן שיש כאן גם פגיעה בפרטיות של המועמדים, ולכן במדינות רבות בעולם הסדירו והגבילו את האפשרות להשתמש בבינה מלאכותית לצרכים האלה", היא מוסיפה.

להט מביאה להמחשת דבריה תביעה שהגיש אזרח אפרו-אמריקני בן יותר מ-40 בארה"ב נגד חברה שאליה הגיש מועמדות, ובה הוא טוען שכלים מבוססי בינה מלאכותית הפלו אותו לרעה בגלל נתוני הבסיס שלו. "בחודש האחרון דחה בית המשפט בארה"ב את הבקשה לסלק את התביעה על הסף", מציינת להט. "כעת היא ממשיכה להתנהל כתביעה ייצוגית".
מהרשות להגנת הפרטיות נמסר כי פנייתו של עו"ד גיא אופיר אשר התקבלה אתמול אחה"צ ברשות, תיבחן ותיענה כפי שנהוג בכל פנייה המתקבלת ברשות. "מבלי להתייחס קונקרטית לתוכן הפנייה, יובהר כי הוראות חוק הגנת הפרטיות חלות ככלל גם על כל פעולה של עיבוד מידע אישי, לרבות, מיון מועמדים בתהליכי קבלה לעבודה באמצעות מערכות בינה מלאכותית", נמסר בתגובה. "יצוין כי הרשות פרסמה לאחרונה טיוטת הנחייה בנושא שימוש בטכנולוגיות בינה מלאכותית, גילוי דעת בנושא קבלת הסכמה בדיני הגנת פרטיות, וכן שורה של מסמכים בנושא הגנה על פרטיות עובדים.
"הרשות פועלת לאכיפת הוראות הדין, בין היתר, בנושאים אלו ותשקול לעשות שימוש בסמכויותיה כלפי מי שיפר את החוק, בהתאם לשיקול דעתה ולנסיבותיו של כל מקרה".
פורסם לראשונה: 05:50, 30.07.25