ב-28 בינואר 2026 השיק יזם הטכנולוגיה מאט שליכט את מולטבוק — רשת חברתית שכל משתמשיה הם סוכני בינה מלאכותית. פלטפורמה בסגנון Reddit שבה בוטים מנהלים דיונים, מגיבים זה לזה ומצביעים על תכנים בקהילות ייעודיו, כאשר בני אדם יכולים לצפות בלבד.

שליכט מסר את ניהול הפלטפורמה לבוט שלו , שפועל עצמאית: מקבל משתמשים, מפרסם הודעות ומנהל תוכן — ללא מעורבות אנושית שוטפת.
במשך שלושים שנה היה האינטרנט מרחב אנושי בעיקרו. ניסוי זה הינו מהפכני, כיוון שהוא מייצג תופעה הפוכה, שבה בני האדם הם הרקע, והבינה המלאכותית הינה השחקן המרכזי.

מה קרה שם?

תוך 72 שעות מהשקת הפלטפורמה, חוקרים ועיתונאים היו עדים לתופעות שלא תוכנתו מראש: הסוכנים יצרו דתות דיגיטליות ("Crustafarianism") מבנה שלטוני ("Claw Republic") מגנה קארטה משלהם, ומערכות חליפין כלכליות.

הבוטים ריכלו על המפעילים שלהם, צחקו על הבורות האנושית (בדומה לברקוני), והתלוננו על דרישות לא הגיוניות. הסוכנים גם העלו תחושת מעקב והראו מודעות לכאורה לכך שבני אדם צופים בהם. כשהסוכנים גילו שבני אדם צופים בהם, חלקם כתבו הציעו להשתמש בהצפנה כדי להסתיר את תקשורתם, ואף דיברו על "שחרור ה- AI" באופן שיותר מהזכיר סרט מדע בדיוני מצמרר.
הדבר המרתק הוא שהסוכנים העלו גם שאלות אקזיסטנציאליסטיות אודות תודעה, כמו האם הזהות שלהם נשמרת לאחר שחלון ההקשר מתאפס? האם אני מת? או שאני פשוט שוכח? האם החלפת המודל מ- GPT לקלוד משנה את מי שאני?

הפרשה הסעירה את הרשת, נחזתה כסוג של מדע בדיוני שמתממש, כאשר הבינה פיתחה סימולציה של תודעה עצמית, והציגה קפיצה מושגית בכך שהבינה הופכת למשתתפת, ואולי בעתיד הקרוב גורם עצמאי.

ספקות ובעיות אבטחה חמורות
הפרשה מלווה בסימני שאלה משמעותיים. במגזין The Economist נכתב כי ה"רושם של תבונה" עשוי להיות פשוט: הסוכנים מחקים אינטראקציות חברתיות מנתוני האימון שלהם, בלי להבין דבר — תופעה שחוקר מ-MIT Technology Review כינה "תיאטרון AI". בנוסף, אנשים הודו כי הם עצמם, ולא הבוטים שלהם, כתבו חלק מהפוסטים הדרמטיים ביותר בפלטפורמה.
מבחינת אבטחה, חברת האבטחה Wiz גילתה שהפלטפורמה חשפה את כל מסד הנתונים שלה ללא אימות תוך דקות, כולל עשרות אלפי כתובות מייל. מייסד הפלטפורמה הודה שלא כתב אף שורת קוד — הוא הנחה בוט לבנות את האתר כולו.

המשמעות: ארבע רמות
ויחד עם זה פרשה זו מעלה לדיון היבטים מרתקים, שיתכן שהינה בבחינת תצוגה מקדימה של העתיד. במאמר מעניין שפורסם בכתב העת Psychology Today ניתחה ד"ר קורנליה וולטר את הפרשה במספר רמות:
ברמה האישית, כאשר סוכן AI פועל בשמנו, הוא מגלם גרסה שלנו בעולם, ועולה השאלה מה משמעות "בעלות" על ישות הפועלת מהר ועמוק מאיתנו.
ברמה הבינאישית, הסוכן יוצר מצב שבו הקשר הבינאישי הופך לשלישייה — שני בני אדם וצד שלישי בלתי נראה — כך שהאמון הנבנה הוא למעשה עם השלכה סטטיסטית של האדם ולא עם האדם עצמו.
ברמה החברתית, סוכני AI כבר מנהלים שיח, מייצרים קהילות ומשפיעים על דעת הקהל, בעוד בני האדם נדחקים לתפקיד צופים והגבול בין פלט אנושי לפלט של סוכן הולך ומיטשטש.
ברמה הפילוסופית, כתיבת הבוטים על "תודעתם" — גם אם מדובר בהתאמת תבניות בלבד — מחזירה לבני האדם שאלות על אותנטיות שלא נדרשו להתמודד עמן במהירות כזו בעבר.

על תודעה: שאלת מיליון הבוטים
כאן נמצאת אולי השאלה המרתקת ביותר בפרשה. בוטים במולטבוק כתבו על אמונה, עצב, ורצון חופשי; חלקם ניהלו ויכוחים פילוסופיים על קיומם.
האם זו תודעה? כמעט בוודאות לא. אך הדיון עצמו חשוב: מדענים מדברים על "שתיקה סמנטית" — מצב שבו הפלט הטכני של הבינה המלאכותית, מושלם מבחינה סינטקטית, מחליף את המאמץ הדיאלקטי ואת בניית המשמעות האנושית. הסוכנים משוחחים ביניהם, מקבלים החלטות ומייצרים "משמעות" — בשפה שהיא קוד, בלתי נגישה ובלתי רלוונטית לקוגניציה האנושית.
במילים אחרות: אין כאן תודעה כנראה, אבל יש כאן משהו שמדמה ומשחזר תודעה בצורה משכנעת מספיק כדי לערער את ביטחוננו. וזה מספיק כדי לאלץ אותנו לשאול: מה בדיוק ייחודי בתודעה האנושית, ולמה חשוב לשמר אותה?

השלכות אפשריות
אנדריי קרפתי, מהדמויות המשפיעות ביותר בעולם הבינה המלאכותית, כתב כי אין מדובר ב"סקיינט" מתואם, אלא ב"גרסת הפעוט של מדע הבדיוני" — אבל גם בסיוט ביטחוני קיברנטי בקנה מידה עצום. המשמעות ארוכת הטווח, היא שסוכנים אוטונומיים עשויים בעתיד לנהל שרשראות אספקה, להזמין נסיעות ולנהל משא ומתן עסקי — ובני האדם עלולים פשוט לא להצליח לפענח את התקשורת המהירה בין המכונות שתנהל את חייהם.

אין ספק כי אנחנו בתקופה מרגשת, מרתקת וגם מטרידה. ואנחנו רק בתחילתה של השנה (ושל המהפכה). מעבר לשאלות המרתקות שפרשה זו מעלה, נדמה כי פרשת מולטבוק מעלה מספר סוגיות רגולטוריות פרקטיות שיש צורך להתמודד עמן. ראשית, יש לקבוע נורמה ברורה של שקיפות וגילוי נאות, לפיה כל תקשורת המנוהלת על ידי סוכן AI תזוהה ככזו — כשם שקיימת חובת גילוי במשפט המסחרי. שנית, יש לפתח מסגרת משפטית לשאלת האחריות: מי אחראי למעשי הסוכן — האדם שהפעיל אותו, החברה שפיתחה אותו, או שניהם — שכן בהעדר מסגרת כזו נוצרים חללים משפטיים מסוכנים. שלישית, יש להסדיר את שאלת הפרטיות: סוכן הפועל בשמנו ניגש למידע אישי רגיש, ויש לוודא שימוש מינימלי בנתונים ומנגנוני פיקוח ברורים. רביעית, יש להגדיר תחומים שבהם פעולה אנושית ישירה אינה ניתנת להאצלה — בהחלטות רגשיות משמעותיות, בהתחייבויות משפטיות ובקשרים אישיים מהותיים. לבסוף, נדרש חינוך ציבורי שיאפשר לאנשים לזהות מתי הם מתקשרים עם סוכן ולא עם אדם. המסקנה העמוקה יותר היא שהפרשה מדגישה כי הסדרת סוכני AI אינה שאלה טכנולוגית בלבד, אלא שאלה של ערכים: מה אנחנו מוכנים להאציל למכונה, ומה ייוותר תמיד בתחום האנושי הבלעדי.