הבינה המלאכותית הסינית "דיפסיק" (DeepSeek) מתחילה להשפיע על היריבות הגדולות מעמק הסיליקון: חברת OpenAI הודיעה בימים האחרונים על שינוי בתהליך העבודה של גרסת o3-mini החדשה (שיצאה רק לפני כשבועיים), כך שה-AI תסביר מעתה את תהליך המחשבה שלה, שלב אחר שלב.
4 צפייה בגלריה
מנכ"ל OpenAI, סם אלטמן (ימין), מציג את o3
מנכ"ל OpenAI, סם אלטמן (ימין), מציג את o3
מנכ"ל OpenAI, סם אלטמן (ימין), מציג את o3
(OpenAI)
אחת התכונות שזכו לשבחים מצד מומחי AI רבים במודל המתחרה של דיפסיק, המכונה R1, היא "שרשרת המחשבה" שלו, כלומר הצגת כל תהליך הסקת המסקנות של ה-AI. כעת בעצם OpenAI מיישרת קו עם המתחרה מסין, שקוראת עליה תיגר.

שינוי גישה, אבל לא לגמרי

o3 הוא מודל בינה מלאכותית היסקי (reasoning), ששיטת העבודה שלו מעמיקה ומטרתה לבחון את הבעיה המוצגת, לפרק אותה לשלבים ולבצע בדיקות חוזרות במידת הצורך. כך הוא יכול להימנע מטעויות או משאלות מכשילות וגם להציג פתרונות מעוררי השתאות. לצד זאת, בגלל שמדובר בתהליך עבודה מעמיק, הוא ממושך יותר והתוצאה מתקבלת מספר שניות מעבר לתוצאות של דגמים אחרים.
גם משאבי המחשוב והחשמל הנדרשים לפתרון גבוהים יותר. הצגת שרשרת המחשבה מועילה בעיקר לחוקרי בינה מלאכותית, שיכולים לעקוב אחר התהליך ולראות מה משפיע על ה-AI בקבלת החלטות מסוימות, ובאיזה שלב נוצרת התשובה.
4 צפייה בגלריה
נתונים שהציגה OpenAI המציגים את היכולות של o3 במענה לשאלות ברמת דוקטורט
נתונים שהציגה OpenAI המציגים את היכולות של o3 במענה לשאלות ברמת דוקטורט
נתונים שהציגה OpenAI המציגים את היכולות של o3 במענה לשאלות ברמת דוקטורט במדעים
(OpenAI)
לצורך העניין, תהליך קבלת ההחלטות בתוכנות מחשב מתבסס על שורות הקוד של התוכנה, וניתן לפענוח בקלות. לעומת זאת, מודלים של AI מבוססים על רשתות נוירוניות ולחוקרים אין דרך להבין באמת החלטות שמתקבלות בהם, כולל כאשר הם עושים טעויות או "הזיות".
OpenAI נוטה לשמור את הקלפים קרוב לחזה והיא בחרה עד כה שלא להציג את שרשרת המחשבה של o3-mini וגם של מודלים היסקיים קודמים. השיקול מאחורי החלטה זו היה להימנע מחשיפת שלבי מחשבה שגויים ומוטים, כמו גם החשש שהתהליך המלא ישמש להעתקת יכולות על ידי יריבות, למשל מסין.
כעת כאמור, OpenAI משנה את הגישה, אם כי לא לגמרי. תהליך המחשבה מוצג רק לאחר שהסתיים, ואז ה-AI "מארגן את המחשבות", מסיר ביטויים לא הולמים או תוצאות לא תקינות, ומציג את התוצאה הערוכה למשתמש. השינוי חל הן על הגרסאות בתשלום של המודל והן על הגרסאות החינמיות שלו. גם לקוחות של גרסת הפרמיום, שבה שרשרת המחשבה עמוקה יותר, ייהנו מתצוגת תהליך המחשבה של ה-AI.
4 צפייה בגלריה
דיפסיק
דיפסיק
דיפסיק. השפיעה על OpenAI והגישה שלה
(צילום: Andy Wong, AP)

התחרות מצד המודלים הזולים

התחרות של OpenAI מגיעה לא רק מדיפסיק, אלא גם מחוקרים באקדמיה. בשבוע שעבר הודיעו חוקרי בינה מלאכותית מהאוניברסיטאות וושינגטון וסטנפורד שהצליחו לאמן מודל AI היסקי בעלות נמוכה מ-50 דולר, זאת תוך שימוש במשאבי מחשוב ענן.
החוקרים פיתחו מודל המכונה s1 ופועל באופן דומה למודלים o1 או o3 של OpenAI ו-R1 של דיפסיק. שיטת העבודה הייתה להתחיל מ-Qwen, מודל ה-AI של "עליבאבא" הסינית שזמין בקוד פתוח, ואז אימון של המודל בטכניקת "זיקוק נתונים" שמבוססת על מודל נתונים מאומן קודם - Gemini 2.0 Flash של גוגל במקרה זה.
החוקרים השתמשו במערך נתונים של אלף שאלות בלבד, כאשר התשובות המדויקות עליהן והאימון נמשך פחות מ-30 דקות באמצעות 16 מעבדי H100 של אנבידיה, שעלותם 20 דולר ביום. התוצאות היו מפתיעות מבחינת יכולתן להתמודד במבחני בנצ'מרק.
בשיטה דומה הצליחו בחודש שעבר חוקרים מאוניברסיטת ברקלי לפתח מודל AI היסקי בעלות של 450 דולר. זו גם בדיוק השיטה בה פיתחה דיפסיק את המודלים שלה, אם כי במקרה שלה כבר מדובר בעלות של 5,000 דולר (בכל זאת סכום זניח לעומת ההשקעה של ענקיות ה-AI במודלים שלהן, ט"ש).
4 צפייה בגלריה
לארי אליסון (במרכז), מלווה בנשיא ארצות הברית דונלד טראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין), נואם במהלך מסיבת עיתונאים בחדר רוזוולט בבית הלבן ב-21 בינואר 2025
לארי אליסון (במרכז), מלווה בנשיא ארצות הברית דונלד טראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין), נואם במהלך מסיבת עיתונאים בחדר רוזוולט בבית הלבן ב-21 בינואר 2025
לארי אליסון (במרכז), מלווה בנשיא טראמפ, סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין). עכשיו לך תסביר למה אתה מבקש מיליארדים
(צילום: Andrew Harnik / Getty Images North America)

יכולת שמתחילה להטריד את המשקיעים והחברות הגדולות

פיתוח בינה מלאכותית בטכניקת זיקוק היא קיצור דרך, שמבוסס על כמויות עצומות של אימון בינה מלאכותית שביצע מישהו אחר, בעלויות גבוהות. היכולת הזו מדאיגה מאוד את המשקיעים בבורסות בעולם, והיא זו שגרמה למניית אנבידיה להתרסק לפני כשבועיים: אם ניתן לפתח מודל בינה מלאכותית בעשרות, מאות או אפילו אלפי דולרים, על מה בדיוק גייסו חברות ה-AI מאות מיליארדי דולרים?
אלא שהתמונה המלאה מסובכת כמובן הרבה יותר. חברת OpenAI האשימה את דיפסיק ב"קצירה" לא מורשית של נתוני המודלים שלה באמצעות ה-API שלה, והגיבה בחסימת חשבונות המשתמשים שזוהו כקשורים לדיפסיק. גם בממשל טראמפ מודאגים מההתפתחויות האלה, המגיעות לאחר הכרזתו של הנשיא על הקמת מרכזי נתונים ענקיים בארה"ב, בהשקעה של חצי טריליון דולר.
יחד עם זאת, זיקוק נתונים אמנם מאפשר לייצר מודלים מקבילים למודלים קיימים, אך הוא לא יכול לשמש לפיתוח הדור הבא של ה-AI. מצד שני, החברות שמפתחות את המודלים החדשים צריכות לספק כעת הסברים למשקיעים כיצד הן מתכננות לשמור על היכולות שלהן ולא לאפשר לכל מאן דבעי לזקק לעצמו מודל AI משלו על חשבונן.