אם לפני ארבע שנים עוד הוטרד העולם מטכנולוגיית ה"דיפ-פייק אודיו", שאפשרה להאקרים לשדוד חברות ענק בעזרת חיקוי מדויק של קולות מנהלים בכירים — מרכז הכובד עובר עכשיו לווידיאו: יכולות ה-AI החדשות מאפשרות לעלות כיתה ל"דיפ-פייק וידיאו" — שיחות וידיאו, שמשתתפיהן מתחזים גם במראה וגם בקול.
דוח מיוחד של היחידה להזדהות וליישומים ביומטריים במערך הסייבר הלאומי חושף, כי הטכנולוגיה עברה כבר משלב הניסוי לשלב הנשק ההמוני וקורא לציבור ולארגונים בישראל להיערך מראש: לפי נתוני חברת Trustpair למניעת הונאות, ב-2024 נרשמה עלייה של 118% בשימוש בדיפ-פייק בווידיאו וקול מזויף. דוח של חברה אחרת, Entrust, קובע כי ברחבי העולם מתבצעת הונאת דיפ-פייק אחת כל חמש דקות, וכ-40% מכלל הונאות הזיהוי הביומטרי כיום כוללות שימוש בכלים מהסוג הזה.
על פי הדוח הישראלי, עבריינים והאקרים משתמשים בטכנולוגיות דיפ-פייק הזמינות היום ברשת כדי להתחזות, בזמן אמת או בסרטוני וידאו מוקלטים מראש, לבעלי תפקידים כמו מנכ"לים, רופאים או עורכי דין. הם נראים ונשמעים כמו דמות סמכותית, שבכוחה להורות על מהלך משמעותי, בעיקר הוצאה כספית. 250 דיווחים על סרטוני דיפ-פייק ברשת התקבלו במערך הסייבר הלאומי בשנה האחרונה, רובם התחזויות לאנשים מוכרים.
1,000 חשבונות מזויפים
השימוש הידוע ביותר בטכנולוגיה לצורך הונאה התרחש בתחילת 2024 בהונג-קונג. בכיר במחלקת הכספים של סניף חברת ההנדסה הבריטית Arup קיבל הזמנה במייל והשתתף בשיחת ועידה בווידיאו, עם מנהל הכספים הראשי (CFO) של החברה ועם מנהלים אחרים שהכיר מקרוב. כולם טענו בשיחה שהם זקוקים להעברת כספים דחופה כחלק מ"רכישה חשאית".
העובד אמנם הרגיש שלא בנוח לאחר קבלת המייל הראשוני — אך שיחת הווידיאו שברה אצלו את מחסום הספק. רק שכל המשתתפים בה מלבדו היו דיפ-פייקים שנוצרו באמצעות AI. בעקבות המפגש הוא ביצע 15 העברות לחמישה חשבונות בנק בהיקף של כ-25 מיליון דולר.
במהלך 2023 ו-2024 דווח על עלייה דרמטית בניסיונות הונאה שבהם פושעים משתמשים בדיפ-פייק בווידיאו כדי לעבור את שלב האימות הייחודי הנדרש על ידי בנקים וחברות רבות בעת פתיחת חשבונות בנק דיגיטליים, לקיחת הלוואות, או גישה לנתונים אישיים. הפושעים יוצרים סרטון דיפ-פייק של אדם אמיתי שעונה על דרישות האימות: מזיז את הראש, ממצמץ או מקריא משפטים.
דוחות של חברת Regula, המספקת פתרונות לאימות זהות, ודוחות רגולטוריים אחרים, מצביעים על כך, שמעל 1,000 חשבונות מזויפים וניסיונות הלוואה רבים נוצרו באותה שיטה וגרמו להפסד מצטבר של עשרות ואף מאות מיליוני דולרים ששולמו על בסיס הזהויות שנגנבו.
המתחזים מקוריאה
התופעה לא מאיימת רק על גופים עסקיים. לפי נעמה בן-צבי, ראש היחידה להזדהות וליישומים ביומטריים במערך הסייבר, "כל אדם שמנהל כיום שיחת וידאו עם נותן שירות — פסיכולוג, עורך דין, יועץ משכנתה ועוד — צריך להיות ער לאפשרות שמדובר בהתחזות".
במערך הסייבר חוששים ממתקפות מתוחכמות, שבהן התוקפים לומדים את שמות המשתתפים, אוספים דוגמיות וידיאו של המנכ"ל ודוגמיות של קולו, אוספים מודיעין על התפקידים בארגון — ובאמצעות כלי AI נגישים מייצרים דמויות שנראות אמינות.
המניעים למתקפות אלו יכולים להיות לא רק כלכליים: גניבת מידע אישי, ריגול עסקי, הונאה פיננסית, חדירה לפרטיות או הכנה למתקפת סייבר מורכבת יותר. במהלך סוף 2024 ועד 2025 הופצו ברחבי הודו סרטוני דיפ-פייק המציגים את שרת האוצר נירמלה סיטרמן מקדמת תוכנית נדיבה — הבטחה להחזרים אסטרונומיים על הפקדה של סכום קטן בלבד. התרמית זכתה לאמינות כה גבוהה בציבור, עד שממשלת הודו נאלצה להבהיר כי מדובר בסרטונים מזויפים.
לפני שנה דווח בארה"ב, כי אלפי מרגלים מצפון-קוריאה הצליחו לקבל משרות בחברות הייטק לאחר שהשתמשו ב-AI ליצירת זהויות בראיונות בזום. המראיינים לא הצליחו להבחין כי בני שיחם 'לובשים' דמות שאינה שלהם.
דוח מערך הסייבר, אגב, מפרט תקיפות אפשריות נוספות בשיחות וידאו, כמו כניסה לפגישות באמצעות קישור שנשלח למשתתף לגיטימי, שימוש בפרופיל הכולל שם ותמונה של משתתף אמיתי, והצעה לפגישה בזום, שדורשת הורדת תוכנה. במערך ממליצים על שורה של אמצעי זהירות מתקדמים, כמו בקשה להצגת חפץ פיזי מסוים (כמו כרטיס או פתק), ניתוח תנועות פנים בזמן אמת, ואימותים המבוססים על בינה מלאכותית. יש גם לשים לב לסימנים מחשידים בזמן השיחה: תנועות פנים קפואות, עיניים לא ממוקדות, חוסר סנכרון בין קול לשפתיים ותגובות איטיות.
פורסם לראשונה: 00:00, 30.09.25







