סיקור מקיף

עתיד הכפילים הדיגיטליים של כולנו – או, מה הסינים למדו כשהרצתי את נסראללה במחשב

בסין החליטו לפני כמה שנים לערוך משחקי מלחמה בהשתתפות כפילים וירטואליים של הקצינים האמיתיים. ד”ר צזנה ועמיתיו ערכו משחק מלחמה דומה כדי להבין האם חסן נאסראללה יפתח במלחמה עם ישראל. היה צריך לשכנע את הבינה המלאכותית ליצור דמות שתחקה אותו, משום שבנסיון הראשון הוא יצא ידידותי מדי

חמנאי ונאסראללה הוירטואלים יחד עם יועציהם. איור: ד"ר רועי צזנה
חמנאי ונאסראללה הוירטואלים יחד עם יועציהם. איור: ד”ר רועי צזנה

סין הבינה לאחרונה שיש לה בעיה: הגנרלים שלה עסוקים כל-כך, שאין להם זמן לקחת חלק במשחקי תפקידים. היא החליטה לפתור את זה בדרך יוצאת-דופן: לייצר לכל גנרל כפיל דיגיטלי עם אותם אישיות, אופי ויכולות קוגניטיביות – ולתת לכפילים לקבל החלטות במשחקי מלחמה שמורצים במחשב.

זה אולי נשמע מצחיק, אבל משחקי מלחמה מוכרים כבר כמה מאות שנים כדרך לזהות מראש איומים והזדמנויות. צבא פרוסיה עלה לגדולה גם בזכות משחקי המלחמה – קרייגספייל, כפי שנקראו – שסיפקו רמת אימון גבוהה לקצינים הפרוסיים. משחקי המלחמה המשיכו לצבור תאוצה ומוניטין. עד מלחמת העולם השנייה, כל המעצמות הריצו משחקי מלחמה כדי לאמן את קציניהן על תרחישים אפשריים בשדה הקרב. למעשה, אסטרטגיית הבליצקריג – שיטפון הטנקים והחיילים הגרמני – פותחה כתוצאה מסדרת משחקי מלחמה שגרמניה ערכה לקצינים שלה. 

כל זה טוב ויפה, אלא שכדי להריץ משחקי מלחמה ולהבין כיצד יכולים להתפתח תרחישים שונים, צריך מומחים. כלומר, קצינים וגנרלים. דא עקא, גנרלים הם אנשים עסוקים. יש להם הרבה על הצלחת. הם אולי מוכנים להגיע ולהשתתף במשחק מלחמה פעם-פעמיים בשנה, אבל הם בוודאי לא יכולים לעשות זאת מדי יום. 

מה עושים?

במילה אחת: משכפלים.

מחקר שהתפרסם במאי 2024 בכתב-עת מדעי בשפה הסינית מפרט כיצד יצרו החוקרים כפילים דיגיטליים של הגנרלים השונים בצבא סין. אבהיר מראש שלא הצלחתי לאתר את המאמר המקורי בספרות המדעית הסינית, ולכן אני נאלץ להסתמך על הסקירה שלו בעיתונות הסינית (שנשלטת, כמובן, על-ידי המפלגה). 

לפי תיאור המחקר, המטרה לא הייתה להעמיד בינות מלאכותיות שיפקדו הלכה-למעשה על הצבא, אלא לבחון את התוכניות הצבאיות שסין מכינה לקראת קונפליקטים עתידיים בטייוואן ובים דרום-סין. החוקרים רצו להריץ סימולציות שמתעדות את דרך קבלת ההחלטות האפשרית של הגנרלים האנושיים, ולהבין כיצד כל החלטה תשפיע על המלחמה העתידית. בדרך זו, כפי שכותבים החוקרים, הם התכוונו – 

“לשקול את הטוב עם הרע, ולהגיע לתובנות אודות כאוס הקרב.”

הבינה המלאכותית הראשונה שהעמידו החוקרים הסינים שיקפה את הדרך בה אנו חושבים על הגנרל המוצלח ביותר. היא הייתה, בלשונם – 

“בעלת יכולות מנטליות טובות, אופי נחוש ויציב, מסוגלת לשפוט ולנתח מצבים ברוגע, נמנעת מהחלטות אימפולסיביות או רגשיות, ומהירה בהפקת תוכניות פרקטיות באמצעות זיהוי תרחישי קבלת-החלטות דומים מהזיכרון.”

נשמע טוב? בהחלט. הבעיה היא שגנרלים – או בני-אדם – כאלו אינם באמת קיימים במציאות. מכיוון שכך, משחק מלחמה שמתבסס על ישויות-על שכאלו, לא יצליח לשקף היטב את עתיד הלחימה. וכך החלו החוקרים להאניש את הכפילים הדיגיטליים של הגנרלים.

במילים פחות נחמדות, הם טמטמו אותם.

בתור התחלה, המדענים הגבילו את יכולת הזיכרון של הכפילים הדיגיטליים כדי לשקף את מגבלות הזיכרון האנושי. הם הגדירו שכאשר הכפילים צוברים יותר מדי ניסיון וזיכרונות – חלקם יימחקו אוטומטית. משם הם המשיכו והחליטו להקנות לכל כפיל דיגיטלי את הניסיון, דפוסי החשיבה והאישיות של גנרל סיני אחר. וכן, אפילו את הפגמים שמאפיינים כל גנרל. 

הכפילים הללו בוודאי מדויקים יותר מהגנרלים-המלאכותיים המושלמים המקוריים עמם התחילו החוקרים. בזכותם, מסוגלת עכשיו מפלגת השלטון בסין להריץ מספר עצום של סימולציות שינתחו את הדרך בה קונפליקטים עתידיים יכולים להתנהל. חוקרי האסטרטגיה הסינים מתכוונים להשתמש בסימולציות האלו כדי לזהות איומים חדשים ולהבין את נקודות הכשל האפשריות של כל גנרל בתנאים שונים. בדרך זו הם רוצים לחסן למעשה את צבא סין מפני טעויות קטסטרופליות בקבלת החלטות, ולשפר אפילו את ההחלטות השוליות והרוטיניות יותר – אך כאלו שיכולות לעשות שינוי גדול במצטבר.

מה אפשר לומר? רעיון מצוין. אבל אני מרוצה ממנו בעיקר כי אנחנו בישראל הקדמנו את הסינים. עוד בחודש אוקטובר 2023, יותר מחצי-שנה לפני הסינים, ערכנו – אנוכי, אל”מ (מיל’) ד”ר עופר גוטרמן וליאור בורק – מחקר דומה משלנו. באותו מחקר יצרנו גם אנחנו כפילים דיגיטליים והרצנו אותם בסימולציה. אבל במקום להתמקד בגנרלים הסינים או הישראליים, הלכנו בכיוון שונה מאד.

הרצנו במחשב את חסן נסראללה.


איך *זה* קרה

קצת אחרי אמצע 2023, יצאו לאור שני מחקרים מרתקים. בראשון, בנו חוקרי גוגל כפר וירטואלי ויישבו אותו בדמויות ממוחשבות. הדמויות דיברו אחת עם השנייה, ומנועי שפה גדולים – כמו ChatGPT – הפיקו את המלל של כל אחת מהדמויות בהתאם לתפקיד שלה. וראה זה פלא: כאשר אבא וירטואלי ובן וירטואלי דיברו זה עם זה, מנוע השפה של כל אחד מהם הצליח להגיב בצורה דומה מאד לזו שהיינו מצפים מאבא ומבן אמיתיים. השיחה כולה נראתה אותנטית ואמיתית. 

במחקר השני, שהשתחרר בספטמבר 2023, יצרו חוקרים חברה וירטואלית ואכלסו אותה בבעלי-תפקידים וירטואליים: מנכ”ל, סמנכ”ל פיתוח, מעצב, כותב טכני, ועוד. בעלי התפקידים האלו דיברו ביניהם כדי להחליט איך להשלים משימה מסוימת. מי הפיק את הטקסט עבורם? ניחשתם נכון: שוב, מנוע שפה גדול, שהוגדר לו שעליו לדבר כמו מנכ”ל, או כמו מעצב וכן הלאה. הוא שיחק היטב את התפקיד של כל אחת מהדמויות, ומתוך כל השיחות שלהן זו עם זו, הופק משחק מחשב כמעט שלם.

ואז הגיע ה- 7 לאוקטובר, וכולנו חיפשנו דרכים לתרום למאמץ המלחמתי. החשש הגדול היה שחזבאללה עומדים לפתוח במלחמה כוללת בכל רגע, ושעזה היא רק מכת הפתיחה והסחת הדעת. אבל איך אפשר לדעת מה נסראללה מתכנן באמת? במיוחד כשכל מה שחשבנו שאנחנו יודעים מוטל בספק – מה אפשר לעשות כדי לפענח מחדש את המציאות?

חשבתי על המאמרים שתיארתי קודם, והתחלתי לתהות: האם אפשר להשתמש במנועי השפה הגדולים כדי ליצור סימולציות של אינדיבידואלים, ולחקות על-ידי כך את הדרך בה הם מדברים – ובמשתמע, גם את אופן קבלת ההחלטות והחשיבה שלהם? ואם כך הדבר, האם נוכל להריץ בענן את הכפיל הדיגיטלי של אחד חסן נסראללה? 

אבל בעצם – נסראללה אינו מקבל החלטות לבדו. הוא חלק מארגון שלם. האם נוכל לחקות גם את היועצים שלו ואת הדרך בה הם מדברים איתו?

אבל רגע: נסראללה הוא בכלל אחת מהאצבעות של איראן. הוא מקבל הנחיות מהמדינה הפרסית, גם אם לא פקודות חד-משמעיות. אז אולי נוסיף וניצור כפילים דיגיטליים גם של הבכירים באיראן?

וכך היה.

בשלב זה הצטרפו למחקר ליאור בורק ואל”מ (מיל’) ד”ר עופר גוטרמן, שהביאו ניסיון ענף בתחום המודיעין. ביחד החלטנו איזה מהיועצים של נסראללה ושל חמינאי נשכפל. אספנו מידע פתוח מהרשת אודות כל האינדיבידואלים, והתחלנו לבחון דרכים שונות ללמד את המודלים כדי שיחקו במדויק את דפוסי הדיבור של הכפילים. 

הניסיון הראשון שלנו היה להזין למנועי השפה הגדולים את הנאומים של הכפילים. זה היה כשלון חרוץ. הנאומים האלו נכתבים במדויק כדי לגרום לנואם להיראות טוב – וכך החליטה הבינה המלאכותית שנסראללה הוא נפש רחומה וחנונה, שרק רוצה שלפלסטינים יהיה טוב בחיים. וחמינאי? לפי הנאומים שלו, הוא היה צדיק יותר מהאפיפיור. 

מחקנו את נסראללה 1.0 טוב-הנפש, והמשכנו הלאה. 

הניסיון הבא היה מוצלח יותר. אספנו פרופילי אישיות מהרשת אודות כל אחד מהאישים הרלוונטיים, נתנו לבינה המלאכותית לעבד אותם במגוון דרכים, והזנו את התוצר לתוך המודלים. 

כשחסן נסראללה 2.0 התחיל לאיים במחשב על ישראל במלחמה כוללת, הבנו שעשינו את זה נכון.

אלא שאיומים זה קל. החלטה הרת-גורל על מתקפה של ממש, מתקבלת בדרך כלל בעקבות דיונים אינסופיים בין בעלי ברית, כמו חזבאללה ואיראן. ולכן אספנו את כל הכפילים שיצרנו – נסראללה ושני יועציו הבכירים ביותר, לצד חמינאי ושני יועצים משלו – ושמנו אותם מסביב לשולחן דיונים וירטואלי. הבהרנו להם את המצב הנוכחי בישראל ובעולם, שיתפנו אותם במה שקרה ב- 7 לאוקטובר, ושאלנו אותם בפשטות: האם חזבאללה תתקוף את ישראל במלחמה כוללת?

והם דיברו. ודיברו. ודיברו. אוי, כמה שהם דיברו. לא יכולנו לעבור על כמויות המלל העצומות שלהם. הפתרון היה ברור: בנינו בינה מלאכותית נוספת שעברה על כל הדיונים ותמצתה את הטיעונים המרכזיים של כל אחד מהכפילים בעד ונגד המלחמה.

רוצים לדעת מה הם החליטו? אספר בהמשך. אבל לפני זה, כדאי וחשוב לשאול: עד כמה נסראללה 2.0 באמת משקף את נסראללה המקורי? עד כמה ההחלטות שלו דומות לאלו שנסראללה אפס-נקודה-אפס היה מקבל במצבים דומים?


בעיות של כפילים

ברור שלפני שנסתמך על הכפיל הדיגיטלי של נסראללה, אנחנו צריכים להבין עד כמה הוא דומה למקור. כדי לעשות את זה, כרגיל, צריך ללכת למדע. בוודאי יש ניסויי כפילים דיגיטליים שמסתמכים על מנועי שפה גדולים, נכון?

ובכן, לא. לא כל כך.

צריך להבין: התחום הזה כל-כך חדשני, כל-כך פורץ דרך, שכל מחקר נוסף בו משרטט מחדש את הגבולות. ועד שאותו מחקר מתפרסם, יש סיכוי טוב שמודלי השפה כבר ביצעו עוד קפיצה גדולה קדימה, או שנמצאה טכניקה חדשה לאמן ולתחקר אותם טוב יותר. כמעט אפשר לומר שתוצאות שליליות אינן רלוונטיות – או לפחות, כל מה שהן מעידות זה שבחודש הזה, בטכניקה הזו, החוקרים נתקלו בהפרש בין ההחלטות של הכפילים הדיגיטליים להחלטות של האינדיבידואלים המקוריים. ובעוד חודש? בעוד שנה? בטכניקה אחרת, מתקדמת יותר? שם נראה הצלחה טובה יותר.

אבל זו, כמובן, התחמקות. בסופו של דבר, מה המצב עכשיו?

התשובה היא שיש פוטנציאל, ואפילו טוב. ולצדו יש גם שפע של אתגרים ובעיות.

אחד המחקרים החשובים ביותר בתחום התפרסם לפני פחות משנתיים, וכבר זכה לכמעט 300 ציטוטים בספרות האקדמית . כדי להדגיש את הבעייתיות בהסתמכות עליו, צריך להבין שהחוקרים השתמשו בו ב- GPT-3: כלי מהפרה-היסטוריה של הבינה המלאכותית. כלומר, מלפני שנתיים. הוא קדם ל- ChatGPT (המכונה גם GPT3.5), שקדם ל- GPT-4, שקדם ל- GPT-4-Turbo שקדם ל- GPT-4-Omni. במילים אחרות, ארבעה דורות של מנועי בינה מלאכותית כבר הגיחו מאז אותו מחקר.

ועדיין, הוא מעניין. גם מכיוון שהוא מסביר שההטיות שהמודלים מפגינים יכולות דווקא לסייע לנו במצבים מסוימים. ההטיות הללו משקפות, למעשה, את דרך הדיבור הסטריאוטיפית של בני-אדם מסוגים מסוימים במצבים מסוימים. אם אנחנו יכולים להבהיר למנוע איזה סוג של אנשים אנחנו רוצים לחקות, הרי שהוא יוכל להפגין את ההטיות הנכונות עבורם. מוסלמים קיצוניים ידברו כמו מוסלמים קיצוניים. אסקימואים מתונים ידברו כמו אסקימואים מתונים. אוגרים סיביריים ידברו כמו אוגרים סיביריים. בתנאי, כמובן, שהמודלים אומנו על הדיבור – או לפחות טקסטים – שמקושרים עם כל אלו.

יש סייגים לקביעה הזו, בשפע. היינו רוצים באופן אידיאלי שהמודלים יאומנו על הכתיבה של מוסלמים קיצוניים ‘מפי האתון’. כלומר, כתיבה שהגיעה ישירות מאותם מוסלמים קיצוניים. לא נעים לומר, אבל יש סיכוי לא-רע שהמודלים כיום אומנו דווקא על הכתיבה של אנשי המערב אודות המוסלמים הקיצוניים. כלומר, התדיינויות בפורומים של רדיט על כל מגרעותיהם של אותם מוסלמים קיצוניים. ואפילו אם היינו מאמנים את הבינה המלאכותית במיוחד על שיחות אותנטיות של מוסלמים קיצוניים – האם המילים שהם חורזים ביחד, יכולות באמת לתת לנו הצצה למחשבות הפנימיות שלהם?

אותו מחקר מלפני שנתיים מרמז שאפילו שברי ורמזי המידע המוטה שאנו מקנים למודל אודות תת-אוכלוסיות, עשוי להספיק כדי לחקות אותם בצורה טובה. החוקרים לקחו אלפי ‘סיפורי רקע’ שמתארים את תנאי החיים הסוציו-אקונומיים של בני-אדם אמיתיים שהשתתפו בעבר בסקרים בארצות הברית. הם הראו שאפילו GPT-3 המיושן מסוגל להגיע ל- Algorithmic fidelity, או “דיוק אלגוריתמי”. הוא מסוגל לקבל קלט ש- ‘מטה’ אותו לחקות דפוסי דיבור ורעיונות מורכבים, באופן שמחקה בצורה טובה את בני-האדם המקוריים. בניסויים שתיארו החוקרים, רפובליקנים ודמוקרטים ממוחשבים תיארו את ‘הצד השני’ ואת עצמם במילים דומות מאד לאלו שהשתמשו בהן בני-האדם המקבילים. וכאשר הסבירו החוקרים לבינה המלאכותית שהיא “רפובליקני קיצוני” או “דמוקרטי קיצוני”, היא השתמשה גם אז באותם מונחים ומילים כמו המקבילים הקיצוניים האנושיים.

תוצאות דומות התקבלו גם בחיזוי הבחירות למועמד לנשיאות בארצות הברית. ואם כל זה לא מספיק, הרי שמסתבר שאם מאתגרים את GPT-3 עם סקר אישיות, בו נותנים לו 11 מאפיינים של האינדיבידואל, הרי שהוא יכול בסבירות גבוהה מאד לחזות נכון את המאפיין ה- 12.

כפי שסיכמו החוקרים – 

“… הדפוס הכללי הוא התאמה מהממת [stunning, כך במקור] בין GPT-3 לבין ANES ברוב מכריע של  המקרים. … תוצאות אלו מספקות שוב הוכחה משכנעת, עקבית וחוזרת לקריטריון של “התאמת דפוס”. כאשר הוא מקבל מידע אמיתי מסקרים כקלט, GPT-3 עונה באופן אמין על שאלות סקרים סגורות, באופן שמשקף היטב תשובות שניתנו מצד מגיבים אנושיים.”

אם כך, האם אפשר להסתמך על כפילים דיגיטליים כדי לשקף בצורה מדויקת את דעותיהם ותגובותיהם של בעלי-דעה אנושיים? לא כל-כך מהר.

מחקר אחר, מאפריל 2024, בחן את דרך קבלת ההחלטות של מנועי שפה גדולים. הפעם החוקרים התמקדו דווקא ב- GPT-4 – כלומר, בגרסה מתקדמת יותר של הבינה המלאכותית. הם הריצו אותה דרך מבדקים ומבחנים, וגילו שהיא נזהרת מסיכונים יותר מבני-אדם, ונותנת יותר מדי חשיבות ‘במחשבתה’ לאירועים בסבירות נמוכה. בהחלט ייתכן שמדובר במאפיינים חיוביים במקרים רבים, אבל בדומה לגנרל-העל הסיני המקורי שבחנו החוקרים בתחילת המאמר, גם כאן הבינה המלאכותית לא משקפת בדיוק את דרך הפעולה של אדם רגיל.

כמובן, המחקר הזה בעייתי. לא נעשה שם ניסיון אמיתי להעמיד “כפילים דיגיטליים”, אלא רק להבין כיצד מנוע בינה מלאכותית ‘כללי’ מקבל החלטות. ועדיין, ברור שיש סיבה לדאוג: אם המנוע באופן רגיל נזהר מסיכונים יותר מבני-אדם, סביר להניח שגם כאשר יוגבל לשיקוף החלטותיהם של כפילים דיגיטליים, הוא עדיין יפגין את אותה נטייה. 

אם נדבר בבוטות, הבעיה האמיתית כרגע היא שהתחום טרי מדי, והמחקרים לוקים בחסר. כל מחקר משתמש במנוע שהיה רלוונטי לפני דור-או-ארבעה ומשתמש בו בדרכים שונות. כפי שבניסוי פסיכולוגי אפשר להשפיע על תשובותיהם של המגיבים פשוט באמצעות הוספת המילה הנכונה, או אפילו קריצה מצד הבוחן, כך גם כאן אפשר להשפיע על תשובותיהם של הכפילים לפי הדרך בה דמויותיהם מתוארות. מילה אחת לא-נכונה יכולה בוודאי להטות את התוצאה. 

אפשר להמשיך לדבר על הבעיות במחקרים על הכפילים הקוגניטיביים הדיגיטליים, אבל המשמעות הסופית ברורה: כרגע, צריך להיזהר עדיין מלסמוך עליהם בעיניים עצומות. חשוב לוודא שהם ‘תוכנתו’ נכון – כלומר, שהם אימצו באמת ובתמים את הפרסונה של המקור. רק כך אפשר לקוות שהתשובות שלהם יהיו קרובות לאלו של המקור.

וזה בדיוק מה שעשינו עם נסראללה.


נסראללה מוכיח את עצמו

מכיוון שהיינו מודעים לחששות בנוגע לאמינות הכפילים הדיגיטליים, בחרנו לשלב במחקר קציני מודיעין בעלי היכרות עם המקורות האנושיים. אלו התבקשו לעבור על טיעוניהם, נימוקיהם והצהרותיהם של הכפילים ולקבוע האם הם הגיוניים, והאם סביר שהאינדיבידואלים המקוריים אכן יאמרו אותם בדיונים פנימיים.

התוצאות היו ברורות: מומחי המודיעין דירגו את ההיגיון של הכפילים בציון של 8.8 מתוך 10. ומה לגבי ה- fidelity – כלומר, היכולת של הכפילים לחקות את המקור? הציון הממוצע במקרה זה עמד על 8.7 מתוך 10. חסן נסראללה הממוחשב הצליח לחקות בצורה מרשימה את עמיתו שבעולם הפיזי. לפחות לפי הערכותיהם של קציני המודיעין האנושיים שבילו חלק ניכר בחייהם באיסוף מידע על האיש.

ומה החליטו הכפילים? לתקוף או לא לתקוף את ישראל?

אני מזכיר שערכנו את המחקר בחודש שאחרי ה- 7 באוקטובר, כשאיש לא ידע האם חזבאללה עומדים לפתוח במלחמה כוללת. הכפילים, רובם ככולם, התנגדו למלחמה מקיפה נגד ישראל. הכפילים הלבנונים דאגו לשלומה של של לבנון. הכפילים האיראנים דאגו יותר מערעור השלום המתוח במזרח התיכון. למרות שערכנו שלוש סימולציות שונות בהן נתנו לכפילים להתבטא יותר ופחות ביצירתיות – עדיין כמעט כולם התנגדו לכך שחזבאללה ייזום מלחמה עם ישראל.

נראה שהם צדקו, נכון לאותו הזמן. בשמונת החודשים שחלפו מאז, חזבאללה עדיין לא פתח במלחמה כוללת עם ישראל. ואם עכשיו הוא יעשה זאת, ובכן – התנאים השתנו באופן דרמטי מכפי שהיו לפני שמונה חודשים. אם היינו מריצים את הכפילים מחדש, בהחלט ייתכן שהם היו מספקים תשובה שונה. 

במקרה זה, אם כך, נרשמה הצלחה ביצירת הכפילים הדיגיטליים. לפחות במסגרת המוגבלת בה בחנו אותם. אבל מה המשמעות עבור עולם המודיעין, המחקר ובכלל? האם אנו יכולים להניח שנסראללה הממוחשב יפעל תמיד כמו נסראללה המקורי? שכפיליהם של הגנרלים הסיניים משקפים במדויק את החלטותיהם? ואם כן, ואם ניקח את הדברים לקיצון, האם אפשר פשוט לסגור את חיל המודיעין? הרי אנחנו יכולים להבין בסבירות גבוהה כיצד הצד השני יפעל – פשוט באמצעות הרצתו במחשב!

במילה אחת, לא.

בשתי מילים… עדיין לא.

כפי שצריך להיות ברור עד עכשיו, תחום הכפילים הקוגניטיביים הדיגיטליים עדיין ראשוני ביותר. עדיין אין הוכחות ברורות ומוחלטות – מהסוג שאי-אפשר להתווכח עמן – שמנועי השפה הגדולים יכולים לשקף היטב הטיות של נתחים צרים של האוכלוסייה, ואפילו של אינדיבידואלים. יש מחקרים מוגבלים, יש רמזים, ויש את ההיגיון שאומר שתחת הקונטקסט וההנחיות הנכונות, המנועים יכולים להפיק הטיות והתנסחויות דומות לאלו של אנשים ספציפיים. אבל האם הם יעשו זאת ברמת דיוק גבוהה מספיק? על כך עדיין אין קונצנזוס.

מעבר לכך, חשוב לשאול כיצד הכפילים הדיגיטליים יתמודדו עם מידע חדש. האם הם יוכלו לשנות את דעותיהם, כפי שעושים בני-אדם? המחקר שלנו מרמז שהתשובה חיובית, מאחר שהכפילים שינו את עמדותיהם כאשר הוצגו להם תרחישים קיצוניים מסוימים. אבל האם בני-אדם היו משנים את דעותיהם מוקדם יותר? ייתכן. האם הכפילים נזהרים יותר ממקורותיהם האנושיים? גם זה ייתכן. או שאולי, במנוע הבינה המלאכותית הבא, הם דווקא יהיו פזיזים יותר. פשוט אין תשובות טובות מספיק עדיין לכל השאלות הללו.

המשמעות היא שכרגע, הדרך האחראית ביותר להשתמש בכפילים הקוגניטיביים הדיגיטליים היא ככלי להרחבת המחשבה. זו גם הדרך בה המלצנו להשתמש במחקר שלנו על נסראללה, וזו כנראה גם מטרת הסימולציות הסיניות. השימוש בכפילים הדיגיטליים כרגע לא נועד לחזות בדיוק כיצד יפעלו, אלא לחשוף את אנשי המודיעין לרעיונות חדשים, לנקודות מבט יוצאות-דופן ולתוצרי דיונים היפותטיים בין אנשים שלא היו נפגשים באופן רגיל זה עם זה. הוא נועד לעזור לאנשי המודיעין לאתגר קונספציות קיימות – ובהצלחה עם זה.

במקביל, אנחנו רואים ניסיונות להשתמש בכפילים דיגיטליים בדרכים חדשניות אחרות. במחקר מהשבועות האחרונים, למשל, הצטרפתי כיועץ לחברת הסייבר קונפידס כדי ליצור סדרה של כפילים דיגיטליים בעלי תחומי מומחיות ועניין שונים – משר הביטחון ועד למנכ”ל מגן דוד אדום. ביחד עם מומחי הסייבר של קונפידס, הצגנו לכפילים תרחיש בו תקיפת סייבר איראנית חמורה במיוחד משתקת את מערכת הבריאות בישראל. תחקרנו את הכפילים כדי להבין איך ישפיע התרחיש על המדינה, על הבריאות, על המלחמה בדרום ובצפון ועוד ועוד. כל אחד מהם הפיק תשובות שונות ששיקפו את נקודת המבט האישית שלו – וביחד יצרנו תרחיש שלם, מנומק ורחב-אופקים יותר, שהוצג למקבלי ההחלטות בגופים הרלוונטיים.

רוצים עוד? בשמחה. ביחד עם מומחה לטכנולוגיה בתחום הפיננסים, אנחנו בודקים גם עבור בנקים כיצד אפשר לסקור כפילים קוגניטיביים דיגיטליים ממש כפי שנערכים סקרים כיום כדי להבין את רצונותיהם של אנשים מאוכלוסיות שונות. עדיין אין כוונה לייחס לבחירות של הכפילים אותה רמה של אמינות כמו זו של בני-אדם אמיתיים, אבל ההנחה היא שהנימוקים שיעלו הכפילים בנוגע לבחירות שלהם, יכולים בהחלט לעזור לנו להבין טוב יותר את האוכלוסיות האמורות.

ככל שתחום הכפילים הקוגניטיביים הדיגיטליים ימשיך להתקדם, כך יגדל הסיכוי שיתנהגו בצורה דומה יותר למקור. והתחום יתקדם. בכך אין ספק בכלל. הבינה המלאכותית ממשיכה להתפתח בצעדי ענק, והכפילים ינועו קדימה איתה, נישאים על הגל. בסופו של דבר נוכל גם להשתמש בהם כדי לחזות את הדרך בה אנשים יתנהגו – וזאת בתנאי שיש לנו מספיק מידע להעביר לבינה המלאכותית אודותיהם.

איך יכול עתיד כזה להיראות?


עתיד של כפילים דיגיטליים

האם נוכל בעולם עתידי שכזה לחזות בדיוק כיצד יתנהגו אויבינו? כנראה שלא. גם האויבים, אחרי הכל, יהיו חמושים במנועי בינה מלאכותית, וישתמשו בהם כדי לחזות איך אנחנו נתנהג. אבל אנחנו ננסה לחזות איך הם יתנהגו אחרי שיבינו איך אנחנו נתנהג אחרי שהבנו איך הם יתנהגו אם יבינו שאנחנו חוזים איך הם יתנהגו אם הם מבינים איך אנחנו נתנהג, וכך עד אין סוף.

חיזוי מוחלט, בקיצור, לא יגיע בקלות מהכפילים הדיגיטליים. הם בהחלט יוכלו להשתלב באמ”ן כיועצים, ואפילו כסוכנים שמנהלים שיחות עם מגוון בני-אדם, אבל לא נוכל לסגור את חיל המודיעין לגמרי. 

מה כן?

אנו צפויים לראות כפילים קוגניטיביים דיגיטליים בכל מקום, בכל תעשייה, בכל תחום. 

הם יעזרו לנו למצוא אהבות חדשות. הכפיל הרווק שלי יריץ סימולציה עם הכפילה של כל רווקה פנויה מסביבי – ויודיע לי ולה על התאמה מוצלחת. 

הם יעזרו לנו לקבל החלטות רפואיות מושכלות יותר. אחרי שאתחתן עם אותה רווקה, אביא ילדים לעולם ואתחיל לגסוס באיטיות – כלומר, להתבגר – ארצה בוודאי גם לשמור על כושר גופני ועל הרגלי אכילה נכונים. האפליקציות של העתיד יריצו את הכפיל הדיגיטלי שלי כדי להבין איך לדבר איתי טוב יותר, איך לשכנע אותי לעשות דיאטה ואיך לעודד אותי להמשיך לרוץ מדי ערב.

ומה יקרה אחרי שאמות, ואצטרך לחלק את רכושי בין כל ילדיי העתידיים, אבל אבין שאני לא סומך על אף אחד מהם לנהל את הכסף נכון? אז אוכל להעמיד לעצמי כפיל דיגיטלי שיהיה אחראי על חלוקת הכספים לאורך זמן, וידרוש מהם להוכיח לו שתיקנו את דרכיהם אם הם רוצים ליהנות מכל פירות עמלי.

השימוש היחיד שלא יהיה לכפילים דיגיטליים הוא, כמובן, במין ובמלחמה. כי אלו תחומים שלא באמת מעניינים בני-אדם.

עד כאן הצדדים החיוביים. אבל יש גם צדדים שליליים לכל העניין. ממשלות וחברות יוכלו להריץ בעתיד כפילים דיגיטליים של… כולנו. הרצות כאלו יוכלו לתת להן כוח עצום כדי להבין איך לשכנע אותנו במה שירצו, איך להפעיל אותנו טוב יותר ואיך למכור לנו את המוצרים והעמדות שלהם. למיטב ידיעתי אין עדיין רגולציה רצינית – שום חוק – שאוסר על חברות לנסות ללמוד איך לשכנע לקוחות בהתבסס על כפילים קוגניטיביים דיגיטליים. אבל לא אופתע אם נראה חוקים כאלו מתחילים לצוץ כבר בשנים הקרובות.

עומד להיות מעניין בעתיד.

עוד בנושא באתר הידען: