אנת'רופיק (Anthropic), אחת השחקניות המרכזיות שמנסות לבנות את אדונינו הדיגיטליים הפוטנציאליים (באחריות, היא מתעקשת), עדכנה את מה שהיא מכנה "מדיניות הפיתוח האחראי" (responsible scaling) שלה. למעשה, החברה מנסה להגדיר לעצמה מתי בדיוק מודל הבינה המלאכותית שלה הופך לחזק מדי, ומצריך לחיצה על כפתור הפאניקה והוספת שכבות אבטחה נוספות לפני שהוא יוצא לעולם.
הפחד: סיוע בפיתוח נשק חדשני להשמדה המונית
הסף החדש שהביא את החברה לכך הוא לפי הדיווח של CNBC פוטנציאל לסיוע בפיתוח נשק להשמדה המונית. הרף שתפס את הכותרות הוא זה: אם מבחנים פנימיים של אנת'רופיק יראו שלמודל AI מסוים יש פוטנציאל לסייע ל"תוכנית מדינתית בעלת משאבים בינוניים" (נקרא בין השורות: לאו דווקא המעצמות הגדולות, מה שאמור אולי להרגיע?) לפתח נשק כימי או ביולוגי, החברה מתחייבת להטמיע אמצעי אבטחה חדשים לפני שהטכנולוגיה הזו תתגלגל החוצה. מרגיע שהם בכלל בודקים תרחישים כאלה, אך באופן אירוני זה גם קצת מטריד.
טריגרים נוספים להפעלת הבלמים כוללים מצב שבו המודל הופך לכזה המסוגל לבצע אוטומציה מלאה של תפקיד חוקר זוטר באנת'רופיק עצמה (זאת אומרת להחליף עובדים קיימים), או אם קצב ההתקדמות של הטכנולוגיה עצמה מתחיל להאיץ מהר מדי בגלל יכולות המודל.
אבל ההקשר רחב יותר - מרוץ חימוש, כסף גדול ותחרות מסין. כל זה קורה, כמובן, על רקע מרוץ החימוש הבלתי פוסק בתחום הבינה המלאכותית. אנת'רופיק, שנהנית מגיבוי פיננסי נדיב מאמזון, ועם הערכת שווי טרייה של 61.5 מיליארד דולר (נכון לסבב האחרון), עדיין נראית קטנה ליד OpenAI, שלפי הדיווחים סגרה סבב גיוס היסטורי לפי שווי פנומנלי של 300 מיליארד דולר.
2 צפייה בגלריה


מנכ"ל OpenAI, סם אלטמן. סגר סבב גיוס היסטורי ונמצא בעמדת הובלה במרוץ החימוש של ה-AI
(רויטרס)
שתי החברות, לצד ענקיות כמו גוגל, אמזון ומיקרוסופט, רודפות אחרי נתח משוק ה-GenAI, שצפוי לפי התחזיות להתנפח לשווי של למעלה מטריליון דולר בעשור הקרוב. התחרות מגיעה גם מכיוונים פחות צפויים, כמו סין, סיכון שהתחדד מוקדם יותר השנה כשהמודל של DeepSeek הסינית הפך ויראלי בארה"ב.
"מועצת ניהול סיכונים"
נראה שאנת'רופיק גם עומדת בהבטחות אבטחה קודמות שנתנה באוקטובר האחרון. החברה אישרה שהקימה "מועצת ניהול סיכונים", שכבר הייתה מתוכננת (כך לדבריה), וצוות אבטחה פנימי. יתרה מכך, אותם תהליכי בטיחות "פיזיים", הכוללים סריקות טכנולוגיות מתוחכמות במשרדים לאיתור אמצעי ריגול נסתרים – קצת כמו סצנות ריגול נגדי מהמלחמה הקרה – אכן מתבצעות. אפשר רק לקוות שציוד הגילוי המתקדם שלהם לא ימצא דברים מעניינים מדי.
בשורה התחתונה: אנת'רופיק מנסה לשרטט קווים אדומים לגבי יכולות AI מסוכנות, במיוחד כאלה הקשורות לנשק להשמדה המונית, תוך חיזוק האבטחה הפנימית והפיזית שלה בשוק רותח, עם סיכונים והיקפים כספיים אדירים. האם הצעדים האלה יספיקו כדי לרסן את הטכנולוגיה כשהיא ממשיכה בהתקדמותה? זאת עדיין שאלת טריליון הדולר.