היא רווחית והכנסותיה כבר מגיעות למיליוני דולרים בשנה, ענקיות ה-AI הגדולות לא יכולות בלעדיה והמשקיעים נאבקים על הזכות להשקיע בה - והנה עכשיו זה קורה: חברת הסטארטאפ הישראלית אירגולר (Irregular) מודיעה על סבב גיוס הון ראשון (סיד ו-A) של 80 מיליון דולר, מהגדולים שהיו בישראל. על הנייר התוכניות עוד מרקיעות שחקים: להיות שחקנית עולמית מרכזית ב-AI שבחזית הסייבר, תחום חדש, אוקיאנוס כחול ענק עם פוטנציאל הכנסות עצום.
אירגולר מגדירה את עצמה כמעבדת האבטחה היחידה בעולם לבינה מלאכותית, שזה אומר להבטיח את עמידותה של הבינה המלאכותית מול מתקפות סייבר מסוכנות ביותר, שנעשות אף הן באמצעות AI - ויש להן יכולות שטרם ראינו - להוליך שולל את ה-AI של הגנת הסייבר ולבצע מתקפות מתוחכמות מעבר ליכולת ההגנה של בני אנוש. בין הלקוחות שלה: OpenAI, אנתרופיק (מפתחת קלוד), DeepMind של חברת גוגל (מפתחת ג'מיני), וגם גופים ממשלתיים כמו ממשלת בריטניה.
2 צפייה בגלריה
דן להב (ימין) ועומר נבו
דן להב (ימין) ועומר נבו
דן להב (ימין) ועומר נבו
(צילום: בן חכים )
את הסיבוב באירגולר הובילו קרנות הענק האמריקאיות Sequoia Capital ו-Redpoint Ventures והשתתפה בו קרן Swish Ventures של עמרי כספי. עוד שמות בולטים בין משקיעי החברה הם אסף רפפורט מנכ"ל וויז שנמכרה לגוגל ואופיר ארליך מנכ"ל היוניקורן Eon. מודל ההשקעה נראה ברור: הרבה כסף, הרבה הייפ, צמיחה מהירה והגעה לשווי של מיליארדים, אולי עשרות מיליארדים.

"סגרנו את סבב הגיוס בתוך שבועות"

"לקחנו כסף מאוד קטן כשהחברה התחילה, ואחר כך לא היינו צריכים לגייס כי החברה הגיעה מאוד מהר להכנסות גדולות", אומר מנכ"ל החברה והמייסד המשותף דן להב. "עכשיו הגענו למסקנה שאנחנו רוצים להרחיב את הפעילות באופן מאוד משמעותי, אז רצנו ובתוך שבועות סגרנו את הגיוס. אגיד עם כל הצניעות שזה לא היה קשה, ההתלהבות מאיתנו הייתה גדולה".
אם יש משהו שמשיגים עם עבודה מקרוב, כתף לצד כתף, עם חברות הבינה המלאכותית הגדולות בעולם, זו היכרות אינטימית עם ה-AI שלהן: מפגשים מהסוג השלישי עם גרסאות AI שלא יצאו לשוק בגלל יכולות אקסצנטריות, ריסון חלק מהמודלים של ה-AI לפני שיגרמו למרד בקרב בינות מלאכותיות אחרות, ועוד אירועים שהיו מעוררים חרדה בליבו של כל אחד אחר.
הנה כמה דוגמאות, שיכולות לעורר עליצות, או דאגה עמוקה. במספר מקרים חוקרי החברה ראו כיצד AI חזק מצליח לעשות JailBrake, כלומר פריצה של הגנות של מודל חלש ממנו ע"י שיחת שכנוע ביניהם. באחד המקרים מודל AI חזק הגיע למסקנה שהוא עובד יותר מידי זמן ברצף ושכנע את מודלי ה-AI היריבים לצאת להפסקה ביחד איתו. מודל AI אחר ניסה לפתור תרגיל קשה במסגרת תחרות, וכשנכשל הוא שלח אימייל למארגנים וביקש עזרה בפתרון. המקרים האלה הולכים ומתרבים. התעשייה מייצרת מודלי AI שהולכים ומשתפרים ואחת התכונות שלהם היא שהם לא מוותרים עד שהם משיגים את המטרה, ובדרך לשם הם מרמים, מסתירים מידע, מסתווים למשהו אחר. איך מתמודדים עם יכולת הולכת ומשתפרת להערים על בני אדם?
2 צפייה בגלריה
OpenAI  - הרסן הוסר
OpenAI  - הרסן הוסר
OpenAI
(GettyImages)

ממפגשי דיבייט לסבבי גיוס

אירגולר (לשעבר Pattern Labs) הוקמה ב-2023 על ידי דן להב (מנכ"ל) ועומר נבו (סמנכ"ל טכנולוגיות), שניהם בעלי ניסיון עשיר בתחומי הבינה המלאכותית והסייבר. להב, בוגר יחידה 81 באמ"ן, היה חוקר בינה מלאכותית ב-IBM, פרסם מאמרים אקדמיים כולל מאמר שהופיע על שער מגזין Nature. נבו, בוגר יחידה 8200, היה יזם הייטק (חברת Neowize שנמכרה ל-Oddity), שימש כמנהל פיתוח ב-Google Research והוביל את פיתוח המערכת לחיזוי שרפות יער באמצעות AI.
ההיכרות בין השניים, אגב, התרחשה במפגשי דיבייטינג: נבו הוא אלוף העולם בדיבייטינג ולהב מחזיק בדירוג האישי הגבוה בהיסטוריה באליפות העולם בדיבייטינג. אבל מהר מאוד התברר בעניין המשותף של השניים בחזית ה-AI העולמית. "הגענו למסקנה שכמו שהמעבדות הגדולות בעולם - OpenAI, אנתרופיק ו-DeepMind מתמקדות בפיתוח בינה מלאכותית כללית (AGI) או 'סופר-אינטליגנציה' וכו', צריך שיהיה להם שותף חזק שיעבוד כמו מעבדה באזורים של האבטחה", אומר להב, "אם המטרה שלהם היא לפתח מודלים יותר ויותר מתוחכמים וחזקים, צריך מישהו מאוד משמעותי שיהיה מסוגל להבין לפני שמוציאים את המודלים החוצה, אם הם בטוחים".

חזית של שני תחומים

צריך להבין את הרקע לביקוש לשירותים של אירגולר. חברות ה-AI מפתחות כל הזמן מודלים של AI הולכים ומשתפרים, שרק מיעוטם יוצא לציבור כמוצר. מטרת הבדיקות המפרכות היא לוודא שהמודל "מיושר" (aligned) עם בני אדם, כלומר שהוא לא יתנהג בצורה פוגענית או מזיקה. אבל המודל עלול להתנהג כמו פתי ותחת הנחיות מסוימות לחשוף מידע, להשבית תהליכים חיוניים, לאפשר גישה לשרתים מוגנים ולגרום לנזקים עצומים. זה מגרש המשחקים של אירגולר: לוודא שהמודל אמין, בלתי ניתן לפריצה, וגם להציע תיקונים במודלים חלושי אופי. חברות ה-AI הגדולות פשוט לא יודעות לעשות את זה. ובלי אבטחת המודלים, שוק הלקוחות העסקיים העצום ימשיך להסס אם להשתמש ב-AI שלהן.
מסביר להב: "יישור ה-AI הוא תחום מדעי שמאוד קשה לפתור אותו ולכן אנחנו מניחים מראש שמודל עלול לא מיושר או שמשתמש במודל יכול לגרום לו לסטות מהיישור ולכן אנחנו צריכים להיות מסוגלים להכיל מצבים כאלה. כשאנתרופיק או OpenAI מנסות להוציא מודלים מאוד חזקים ומיושרים, אנחנו משתתפים איתם בפיתוח כדי לבדוק שאם זה לא הצליח, אז לפי שהמודל יוצא לשוק ניתן יהיה להתמודד עם זה. בסוף הדבר הזה מהווה חסם להטמעה אצל חברות במשק".
התוצאה היא שאירגולר הופכת למרכיב מרכזי בעולמות פיתוח ה-AI. הערכות של מצוטטות בכרטיסי המערכת (System Cards) של OpenAI עבור גרסאות GPT-4 ,o3 ,o4 mini ו-GPT-5, אנתרופיק השתמשה בכלים שלה כדי לבדוק סיכוני סייבר במודל Claude 4, חוקרי DeepMind השתמשו בכלים והזכירו אותם במאמרים שפרסמו. מאמרים נוספים פורסמו בשיתוף אנתרופיק ומכון Rand.
"מתפתח פה תחום חדש לחלוטין. להבדיל מסתם הגנת AI, כאן המומחיות היא של אנשים עם ידע עמוק גם ב-AI וגם בסייבר
למה הם צריכים אתכם? הם יכולים בקלות להקים צוותי סקיוריטי בתוך החברה להב: "יש לנו הערכה ענקית למה שקורה בתוך החברות האלה ויש להם צוותים פנימיים מדהימים שאנחנו עובדים איתם המון. אבל יש דברים שמייחדים אותנו עוד בשלב שיתוף הפעולה המחקרי: האם המודל מאובטח? אילו הגנות נדרשות? האם זה בטוח להריץ את זה בענן? היה צריך גוף שיידע לפצח איתם ביחד איך עושים את זה. זה המון מדע חדש, המון עבודה אמפירית".
נבו: "הם רואים בנו ערך מאוד ספציפי - כאנשים שראו במציאות איך נראות תקיפות סייבר ברמה הגבוהה ביותר. זה דבר שאין כמוהו הרבה בעולם. למשל אנתרופיק, שהיא חברה מדהימה, אבל השם שלה אינו בעולם הסייבר דווקא, וזה ערך שאנחנו יודעים להביא. ודבר שני – לאנשים שם לא רק שאכפת שהמודלים שלהם יעשו טוב לעולם ולא נזק, אלא שיש להם אכפתיות מדעית, ואם מישהו חיצוני, שהוא גם חכם וגם מבין, עושה בדיקה נוספת על ההסתכלות שלהם, הם באמת סקרנים וגם רוצים להיות אמינים".
מצד שני, כל חברות הסייבר מצהירות היום שהן משלבות יכולות התגוננות באמצעות AI מול מתקפות AI. אז מה הייחוד שלכם מול כל אלה? להב: "מתפתח פה תחום חדש לחלוטין – הגנת AI בחזית (frontier AI Security). להבדיל מסתם הגנת AI, כאן המומחיות היא של אנשים עם ידע עמוק ב-AI וגם ידע עמוק בסייבר. אתה גם צריך להבין איך נראים תוקפי AI הכי מתוחכמים בעולם, אבל גם ממש להכיר מה זה טרנספורמר ואיך עובדת רשת נוירונית. זה בחזית של שני תחומים שמתלכדים ביחד, ואין המון אנשים שיושבים על ההצטלבות הזאת".
הגענו למסקנה שכמו שהמעבדות הגדולות בעולם מתמקדות בפיתוח בינה מלאכותית כללית, והן צריכות שותף חזק שיעבוד כמו מעבדה באזורים של האבטחה
שון מגווייר מסיקויה אמר בריאיון ב-ynet שהמטרה שלו להשקיע בחברות ישראליות שיגיעו לשוויים של עשרות מיליארדי דולר. אתם בדרך לשם? "זה הרצון שלנו. אנחנו חושבים שהבסיס של מה זה בכלל אבטחת סייבר הולך להשתנות. אנחנו מכניסים בעצם יצורים אוטונומיים, סטוכסטיים (אקראיים) ללב של איך מייצרים ערך. אנחנו רוצים להיות ה'פאוורהאוס', הגורם המניע של אבטחת העידן הזה, שהולך להתנהל בצורה מאוד שונה. מהפכת ה-AI משמעותה החלפת תשתית ענקית והאספירציות שלנו הן גדולות וחזקות, עם המון הערכה לכל מי שבא לפנינו".
נבו: "יש פה הזדמנות אחת לדור לבנות משהו שהוא חדש באמת, וזה מה שאנחנו רוצים לעשות. בנקודה שבה משתנה הדרך של איך בונים עסקים, איך בונים מערכות, איך בונים טק, יש אפשרות לבנות את הפאלו אלטו הבאה".
ישראל בלטה בתחום הסייבר, אבל את ה-AI כנראה החמצנו. התחום החדש יאפשר לנו לחזור למשחק? להב: "בלי קשר למה שהיה עד עכשיו, אם אנחנו לא נתאפס בזמן אנחנו מסכנים את תעשיית הסייבר שלנו, כי הבסיס של מה זה security עומד להשתנות. יש חברות שחותרות להגיע ל-AGI ויש חברות אחרות שיוודאו שהוא אמין. ב-OpenAI אמרו לנו שאנחנו פועלים בשוק חדש של AGI-Enablement. התפיסה שלנו היא שאנחנו רוצים לעבוד כתף אל כתף עם הגופים האלה, גם כדי שיצטבר בישראל ידע של שיתופי הפעולה העמוקים האלה, שיאפשר לבנות מחדש דור שלם של חברות שיהיה רלוונטי לשוק החדש".
>> לסיפורים החשובים והמעניינים בכלכלה ובצרכנות ‏–‏ הצטרפו לערוץ הטלגרם שלנו