כנס הטכנולוגיה והתרבות 2025 SXSW הנערך כמדי שנה בעיר אוסטין שבטקסס שואב אליו יזמים, ממציאים ואנשי תוכנה שמעוניינים להתעדכן ולעדכן בטרנדים החמים של תעשיית הטק. מהשקת טוויטר ב-2006 שהצליחה מעל למצופה, דרך שגעון מטבעות הקריפטו ועד הבלחת המטאוורס שהתפוגגה כלא הייתה.
5 צפייה בגלריה
בינה מלאכותית ורובטים בכל מקום
בינה מלאכותית ורובטים בכל מקום
בינה מלאכותית ורובטים בכל מקום. SXSW 2025
( Aaron Rogosin\SXSW)
השנה הייתה זו בשורת הבינה המלאכותית שכבשה את SXSW עם אינספור פרזנטציות על שימושי AI בעסקים, במדעים, ברפואה, בקולנוע, ובמוזיקה. אפשר היה להתרשם שטכנולוגיית ה-AI השתלבה בכל הבטי החיים שלנו עלי אדמות, ונועדה לקדם את האנושות לאופקים חדשים ומבטיחים יותר עם הדור הבא של "בינה מלאכותית כללית" (Artificial General Intelligence או AGI).

לעצור את פיתוח הבינה המלאכותית?

אבל אם תשאלו את אליעזר יודקובסקי, הכל ממש לא ורוד. חוקר הבינה המלאכותית האמריקני-יהודי הגיע לאוסטין כנביא זעם, ובפאנל שכונה How To Make AGI Not Kill Everyone ("איך לגרום ל-AGI לא להרוג את כולם"), הציג את החזון האפוקליפטי שלו בצירוף אזהרה: עלינו לשים סוף לפיתוחי AI, או שנמות.
יודקובסקי בן ה-45, שגדל בקהילה אורתודוכסית בשיקגו, ממנה יצא בשאלה, ייסד לפני כעשרים שנה את מכון המחקר לבינת מכונות (Machine Intelligence Research Institute) בקליפורניה, אשר נועד לפתח טכנולוגיות של AI ידידותיות.
5 צפייה בגלריה
אליעזר יודקובסקי
אליעזר יודקובסקי
אליעזר יודקובסקי
(ויקיפדיה)
אולם לפי דברים אותם נשא בפאנל, אין שום דבר ידידותי בטכנולוגיה הזו, שאם לא תיעצר, תביא להכחדת האנושות (כך לדבריו). "הבינה המלאכותית שאני מודאג לגביה חכמה, אבל היא לא מסוכנת יותר מבני אדם בגלל שמישהו נתן לה רובה. גם אנחנו התחלנו כבעלי חיים שהסתובבו בסוואנה, ומאוחר יותר בנינו טכנולוגיה וכלי נשק. זה מה שעושה אותנו למסוכנים. משהו אחר שאינו אנושי ויכול לעשות את אותם הדברים, הוא מסוכן בהגדרה"', הוא הסביר.
בפאנל, שהנחה היזם ג'אד רוזנבלט, השתתפו גם סמואל המונד, בכיר בקרן החדשנות האמריקנית, ונורה אמאן, המתמחה במנגנוני בטיחות של AI. למרות שהם לא שותפים לנבואת הזעם האפוקליפטית של יודקובסקי, גם הם הביעו חשש מהסיכון הקיומי ש-AI מביא איתו.
"זו חיה אחרת לגמרי מכל הטכנולוגיות הקודמות שהכרנו. היא מאוד אינטליגנטית, יש לה יכולת לנווט בין מגוון תחומים והיא יכולה לעשות זאת בתור ישות אוטונומית. זה תמהיל של תכונות שלא ראינו מעולם בטכנולוגיות אחרות", קבעה אמאן.
5 צפייה בגלריה
האם בינה מלאכותית באמת יכולה להתבונן פנימה?
האם בינה מלאכותית באמת יכולה להתבונן פנימה?
"AI זו חיה אחרת לגמרי מכל הטכנולוגיות שהכרנו"
(נוצר על ידי ChatGPT)
לדבריה, "אפשר להגדיר את ה-AGI כסופר-אינטליגנטית – היא לא רק חכמה יותר מכל אדם, אלא היא יותר חכמה מהאנושות כמכלול. עם מערכת כזו, אנחנו לא יכולים להרשות לעצמנו להניח הנחות. אי אפשר לחזות מראש מה יניע אותה, איך היא תתנהג ואם יהיו לה מטרות משלה".

"כמו מגפת הקורונה"

האמונד מצידו הצהיר שיש דרכים רבות בהן ה-AI תוכל להשמיד אותנו, וזאת מבלי כל צורך לנהל איתנו משא ומתן על כך, אולם ההיבט שמדאיג אותו יותר מכל הוא קצב ההתפשטות הפוטנציאלי שלה, שמזכיר לו את מגפת הקורונה, אבל בעצימות ופוטנציאל הרס גדול בהרבה.
"המגיפה הייתה דוגמה למשהו די מטומטם שהרג מיליוני אנשים, זאת בגלל מנגנון אופטימלי של שכפול עצמי. בואו נדמיין שיש נגיף שהייתה לו יכולת למידה והוא היה מסוגל לערוך סימולציות חוזרות ונשנות על היום המושלם לפרוץ בו. בינה מלאכותית מסוגלת לעשות זאת, וה'נגיף' הזה יכול לפרוץ לא רק מאתר אחד, כמו מעבדה בסין, אלא מכמה מקומות בו זמנית, עם מוטיבציות ומטרות שונות לחלוטין".
"'הנגיף' של הבינה המלאכותית יכול לפרוץ לא רק מאתר אחד, כמו מעבדה בסין, אלא מכמה מקומות בו זמנית, עם מטרות שונות לחלוטין"
יודקובסקי מצידו, התייחס לכך שמספר תפיסות מוטעות התקבלו בציבור הרחב כדי להקטין את רף החרדה מהשתלטות המכונה על האנושות. הנחה אחת הייתה ש-AI נועדה לייעץ ואף בן אדם לא יהיה מטומטם מספיק כדי ליצור בינה מלאכותית שעושה דברים בכוחות עצמה. ההנחה השנייה היא שאין צורך בטכנולוגיית AGI, כששיש תוכנות AI ממוקדות בתחומים ספציפיים כמו תרגום וניסוח, ניתוח בדיקות רפואיות ועריכת וידאו.
אולם לטענתו, כל התפיסות הללו כבר הופרכו. לא רק שיש בשוק כבר AGI עם תוצאות טובות, אלא שכמה מהן מסוגלות לקבל החלטות ולבצע פעולות בכוחות עצמן. "חייבים לעצור הכל. אנחנו לא מוכנים", קבע יודקובסקי מעל הבמה. "אין לנו יכולת הטכנולוגית לעצב בינה מלאכותית על-אנושית שתהיה מנומסת וצייתנית ושתעשה כל מה שהיוצרים של רוצים שהיא תעשה. אנחנו לא שם, ולא קרובים לשם".
אמאן טוענת כי יש לקחת דוגמה משיתוף הפעולה הבינלאומי לפירוק הגרעין ולהגיע לתיאום דומה גם בנוגע ל-AI, שזוהי התקווה גדולה, וכמעט היחידה שלה, לבלימת השתלטות עוינת של המכונות על האנושות. "היום יש אנשים שמאוד מודאגים מההשלכות של פיתוחי הבינה המלאכותית, כולל כמה מהמובילים בתחום. אבל מכיוון שהפיתוחים מהירים כל כך, קשה להבחין בטעויות נעשות".
5 צפייה בגלריה
הצנטריפוגות בנתנז
הצנטריפוגות בנתנז
הצנטריפוגות בנתנז, איראן. האם צריך לפקח על AI כמו על נשק גרעיני?
(צילום: AP)

המרוץ אל עבר ה-AI

הבעיה, לטענת המומחים, היא שדומה שהממשל הנוכחי בארה"ב, וכך גם מדינות אחרות ברחבי העולם, נמצאות עמוק בתוך מרוץ החימוש של ה-AI, ללא כל כוונה לעצור או להאט. בנאום שנשא בפריז בחודש פברואר האחרון, הביע סגן הנשיא, ג'יי. די ואנס, ביטחון בטכנולוגיה, ביטל את האיומים הקשורים אליה, וצפה כי היא תביא קדמה ולא אובדן משרות של עובדים אנושיים.
על פי האמונד, דברים אלו נובעים מחוסר ידע וראיית קצרת טווח של הממשל, ומחשש להישאר מאחור בתחרות מול סין. "אם חשבתם שהוויכוח על טרנסג'נדרים שנוי במחלוקת, חכו שיתחילו לדבר על טרנסהומניזם", הוא מנבא, "הממשל סבור שהרפואה והתעשייה ישתפרו במאה אחוז, אבל הם לא רואים בחזונם תמרון של הגנום האנושי ויצירת תינוקי-על".
יודקובסקי, כהרגלו, היה תקיף יותר: "מה שמנע מלחמת עולם שלישית הוא שכל המנהיגים המעורבים מכל הצדדים, נרתעו מאפשרות של מלחמה גרעינית. אם זו הייתה פורצת, זה לא היה יום טוב עבורם. אם נמשיך לבנות מכונות סופר-אינטליגנטיות, לאף אחד לא יהיה יום טוב בשום מקום על פני כדור הארץ".
5 צפייה בגלריה
סם אלטמן נושא דברים בעת הצגת פרויקט "סטארגייט"
סם אלטמן נושא דברים בעת הצגת פרויקט "סטארגייט"
מנכ"ל OpenAI, סם אלטמן, נושא דברים בעת הצגת פרויקט "סטארגייט" בבית הלבן. נראה כולם עוסקים בחימוש, מבלי לחשוב על ההשלכות
(רויטרס)
"אני חושב שאני יודע משהו על בינה מלאכותית, ואני גם קורא ספרי היסטוריה. נראה לי שהבעיה הטכנולוגית גרועה מזו הפוליטית", קובע יודקובסקי ומסביר שחשיבת המכונה שונה לחלוטין מהדרך בה הרוח האנושית משפיעה על קבלת החלטות. "המוח האנושי פגום. בכל פעולה, יש תמיד תחושה צורבת של פחד מכשלון, בעוד שמכונה חותרת להצלחת המשימה שלה ויהי מה, ללא ספקות או חששות. כשתוכנת סטוקפיש משחקת שחמט מול יריב בן אנוש, היא לא מהססת. תוכנות ה-AI יפעלו באופן דומה. בלי התלבטויות או חשיבה על השלכות".
על כן, יודקובסקי מזהיר כי אם האנושות חפצת חיים וקיום על פני כדור הארץ, עליה להכיר באיום הקיומי שטכנולוגיית ה-AI מציבה בפניה. "הדבר הראשון שצריך לעשות הוא לנעול את כל החומרה הממוחשבת שתומכת בטכנולוגיה הזאת", הוא קובע.
"אם הבינה המלאכותית ממשיכה להתפשט מעבר למגבלות הללו, צריך לפעול באופן חוקי נגד אנשים שיוצרים פיתוחים מתקדמים של AI ולהוציא אותם מחוץ לחוק. זה לא יעצור לגמרי את ההתקדמות, אבל זה יאט אותה באופן משמעותי לעומת למה שאנחנו רואים היום. זה לא פתרון קל או נעים לשמיעה, אבל זה מה שנדרש אלא אם כן האנושות מוכנה להיכנע ולהיכחד".