top of page
הרשמו לידיעון המקוון שלנו

קבלו עידכונים על מאמרים חדשים והתרחשויות אחרות

תודה על הרשמתך

קבוצת וואטספ שקטה

whatsapp group.png

קבוצה למטרת עידכונים על מאמרים חדשים או התרחשויות הקשורות בQ-Israel. בקבוצה לא יתנהלו דיונים כך שהיא תהיה שקטה וחברותית ומספר ההודעות יהיה דליל :)

מפת התורפה: פענוח הסודות הגלויים של הפנטגון

מסמכי המכרז הפומביים של DARPA חושפים את ההימורים הטכנולוגיים של צבא ארה"ב לקראת 2035 - אך השפה שבה הם כתובים מבטיחה שהציבור לא יקרא אותם.


הפנטגון מפרסם כל שנה רשימה של כל מה שהצבא האמריקאי עדיין לא יודע לעשות. המסמכים פתוחים לחלוטין. אפס סיווג. גישה חופשית לכל אדם בעולם. אז למה אף אחד לא קורא אותם? כי הם כתובים בשפה שמבטיחה שרק מי שיודע מה הוא מחפש - ימצא.


בכל שנה, המעצמה הצבאית החזקה בעולם מפרסמת, בפומבי, רשימה של כל מה שהיא עדיין לא יודעת. המסמכים נגישים לחלוטין, מתועדכנים בקביעות, ומפורסמים על ידי הסוכנות עצמה - ובכל זאת, האדם הממוצע שיתקל בהם יסגור את הלשונית אחרי שלוש פסקאות של ניסוח בירוקרטי צפוף. זה לא כשל - זה מבנה. מפת הדרכים של כיוון המחקר הצבאי האמריקאי כתובה לא בדיו סודית, אלא בשפה שמבטיחה שרק מי שיודע מה הוא מחפש יוכל לקרוא.

אבל לפני שמנתחים את התוכן, כדאי לעצור רגע על המנגנון עצמו. השקיפות שמציגים מסמכי הסוכנות הצבאית לפרויקטים מחקריים מתקדמים (DARPA) היא שקיפות אמיתית מבחינה פורמלית - הכל פתוח, הכל מקוון, אין צורך בטופס חופש מידע. אלא ששקיפות הכרוכה בכשירות טכנית לממשה אינה שקיפות דמוקרטית אלא שקיפות אריסטוקרטית: מה שנחשף, נחשף רק לאלה שיש להם ההכשרה, הזמן, והמוטיבציה לפענח את הניסוח. יורגן הברמאס הבחין בין מרחב ציבורי שבו הדיון פתוח לכל באופן פורמלי, לבין מרחב שבו מתקיימים התנאים המאפשרים השתתפות ממשית - אולם הביקורת ההברמאסית עמוקה מסוגיית הנגישות גרידא. הברמאס אינו שואל רק מי יכול לקרוא את השיח, אלא מי מגדיר מלכתחילה אילו בעיות ראויות להישאל. בהכרזה רחבה של הסוכנות (BAA), לא רק שהציבור אינו יכול לקרוא - הוא גם אינו חלק מהגוף שמחליט אילו שאלות נכנסות למסגרת המוסדית מלכתחילה[1]. מסמכי DARPA שייכים לסוג הראשון בלבד - ועובדה זו, כשלעצמה, היא עובדה פוליטית.

לוגו DARPA
לוגו DARPA

הסוכנות הצבאית לפרויקטים מחקריים מתקדמים בתחום ההגנה מפרסמת כל שנה עשרות מסמכי מכרז מחקרי המכונים BAA (Broad Agency Announcement), ומגישה אותם לאתר הממשלתי הפתוח SAM.gov[2]. הם כתובים בנוסח משפטי-טכני שמסתיר, מתחת לשכבה של דרישות פרוצדורליות, הודאה שאף דוח מודיעין לא יכיל: בעוד שפורמלית הסוכנות מגדירה זאת כ'חיפוש אחר פתרונות קצה לשדרוג יכולות קיימות', הקריאה בין השורות מציירת תמונה של הודאה בשתיקה: הסוכנות מכירה בכך שקצב האיומים גובר על יכולות הניבוי הפנימיות שלה. שאינה יודעת מי יפתור אותה, ושאינה בטוחה אפילו כיצד. מי שיודע לקרוא את הניסוח - ולהבחין בין מה שכתוב לבין מה שהסוכנות מודה שאינה יודעת - יוצא עם תמונה אסטרטגית על כיוון המחקר הצבאי האמריקאי שאינה נגישת לקורא המזדמן. הדרך לדעת לאן הפנטגון מנסה להגיע אינה הסתננות לחדר הסמוי - אלא קריאה מדוקדקת של מה שהונח על השולחן הפומבי.


הרעיון שעומד בבסיס ה-BAA הוא אפיסטמולוגי לפני שהוא בירוקרטי. DARPA לא מאמינה שגאונות ניתנת לתכנון מרכזי - ולכן היא לא מפרסמת מפרט טכני ומחפשת את מי שיבצע אותו, אלא מפרסמת בעיה ומחפשת את מי שחשב על פתרון שהיא טרם דמיינה[3]. הכרזה רחבה היא, במובן מסוים, הודאה בענווה: שהידע מבוזר, שהחדשנות המשמעותית מגיעה ממקומות בלתי צפויים, ושהדרך לרתום אותה היא לא לסגור את השאלה אלא לפרסם אותה ברחבי העולם ולראות מי מרים יד. מה שנראה כהזמנה לרכש הוא למעשה הצהרת חוסר ידיעה של המעצמה הצבאית החזקה בעולם - וזו, כשלעצמה, עובדה מרתקת.


שלושה כיווני מחקר שהתגבשו בין 2022 ל-2025 מאפשרים לקרוא, מתוך המסמכים הפומביים עצמם, את ההימורים הטכנולוגיים שהפנטגון מניח על השולחן לקראת שנת 2035. הם שונים זה מזה בנושא, במיקום הארגוני שממנו יצאו, ובשפת הסיכון שבה הם מנוסחים - אך יחד הם מרכיבים תמונה על שלושה ממדים שבהם המלחמה הבאה עשויה להיקבע: קוד, אלגוריתם, וביולוגיה. לא שריון ולא חיל-אוויר, לא לוגיסטיקה ולא ציי מלחמה - אלא שכבות תשתית שאינן גלויות לעין, שקיומן הנוכחי הוא נקודת פגיעות ושבירתן תהיה הפתעה רק למי שלא קרא את מה שפורסם בגלוי.


הראשון שבהם נוגע לאתגר הסייבר של בינה מלאכותית (AIxCC), תחרות-מחקר פתוחה ש-DARPA השיקה ב-2023 בשיתוף עם ענקיות טכנולוגיה אמריקאיות, שמסמך ה-BAA הרשמי שלה ב-SAM.gov, ניתן לקריאה מלאה[4]. כדי לא להציג פרשנות כעובדה, ראוי לצטט ישירות: הכרזת ה-AIxCC מנסחת את אתגר הבסיס כך -

"critical software systems... contain vulnerabilities that are unknown and unmitigated"

ומגדירה את יעד התחרות כפיתוח מערכות שיוכלו

"to automatically find and fix vulnerabilities in software at scale".[4]

זה ניסוח של בעיה, לא של פתרון; תחרות אקדמית פתוחה, לא תוכנית רכש סגורה. הפרשנות שנובעת מכך - ש-DARPA מחפשת פרדיגמה של הגנה אוטונומית - היא קריאה לגיטימית של הכיוון, אך יש להציגה ככזו. המסמך מגדיר את האתגר כצורך ב'סנכרון הגנה בקנה מידה רחב' (at scale), אך הניתוח האסטרטגי של דרישה זו חושף את הפער הקיים: תשתית הקוד של המערב גדולה ומורכבת מדי לניטור אנושי, מה שהופך את האוטונומיה לא לחלופה אופציונלית, אלא לכורח הישרדותי. לא מפני שאיש לא ניסה, אלא מפני שבסיסי קוד בני עשרות מיליוני שורות, שנכתבו לאורך עשורים על ידי אנשים שכבר עזבו, אינם ניתנים לסריקה אנושית מלאה. האם מכך ניתן להסיק שמי שינצח את מלחמת הסייבר של 2035 יהיה מי שתיקן את כל הפרצות בתשתית שלו לפני שהסתיים הלילה? זוהי פרשנות סבירה של כיוון - אך לא הצהרה של המסמך.


המסמך השני, הארוך והמחמיר מבין השלושה, יצא מיחידה שפחות מוכרת לקהל הרחב אך מרכזית להבנת כיוון החשיבה: מחלקת המחקר של חיל הים האמריקאי (ONR). פרסומי ה-ONR בנושא אוטונומיה בסביבות מורכבות, ובכלל זה BAA מסדרת N00014, עוסקים בשאלה שניסוחה נותר חקוק בתודעת מי שקורא בעיון[5]. לא "מלחמת מידע", לא "לוחמת-סייבר", אלא עכירות מידע: הרעיון שסביבת המידע של הלחימה המודרנית אינה רק מוצפת בחומר כוזב, אלא שעכירות קיימת בה מבנית - מרכיב מהותי שמונע מכל מערכת, אנושית או אלגוריתמית, להבחין בין אמת למניפולציה בזמן קצר מספיק לפעולה. הספרות המחקרית על עומס מידע בסביבות קרב מתעדת את הממד האנושי של הבעיה - חיילים שמקבלים יותר נתונים ממה שהם יכולים לעבד, ושדווקא הטכנולוגיה שנועדה לסייע להם מגדילה לעתים את הכאוס[6]. מה שפרסומי ה-ONR שואלים - כפרשנות המחבר, לא כניסוח מצוטט מ-BAA ספציפי - הוא משהו קשה מכך: כיצד מערכת קבלת החלטות תפעל ביעילות כאשר היא מניחה מראש שחלק מהמידע שהיא מקבלת הוא שקר, אך היא לא יכולה לדעת מה בדיוק.


זוהי שאלה פילוסופית עתיקה - ספקנות אפיסטמית (epistemic skepticism) בלבוש מבצעי - וה-ONR מבקשת ממנה תשובה שתפעל בפחות מאלפית שנייה בסביבת קרב. ההשלכה, שאינה מנוסחת במפורש בפרסומי הסוכנות אלא נובעת מהלוגיקה של הפרסומים, היא שמי שיפתח מערכת כזו ימחוק את אחד היתרונות המסורתיים של המודיעין האנושי: האינטואיציה הקונטקסטואלית, היכולת של ניצב בשדה להרגיש שמשהו אינו נכון גם בהיעדר ראיה פורמלית. הכרזות ה-ONR מתמקדות בשיפור 'קבלת החלטות בסביבות רועשות'. עם זאת, מבחינה אפיסטמולוגית, המחקרים הללו מכוונים ללב הפרדוקס המודרני: המצב שבו היתרון המודיעיני המסורתי הופך לנטל כתוצאה מעכירות המידע, ומאלץ את המערכת לוותר על האינטואיציה לטובת מודלים סטטיסטיים של סבירות.

חיל הים האמריקאי — ספינת מחקר אוטונומית בתמרון
חיל הים האמריקאי — ספינת מחקר אוטונומית בתמרון

בין שני כיווני המחקר הראשונים לשלישי יש מרחק שלא ניתן לגשר עליו בנוחות: הראשונים עוסקים בתשתית, בקוד, במערכות שניתן לדמיין כשרתים ומסכים. הכיוון השלישי עוסק בדבר שקשה יותר להכיל - ביולוגיה. בממד הביולוגי פועלים כאן שני מסלולים מוסדיים שונים: מצד אחד הסוכנות הצבאית לפרויקטים מחקריים מתקדמים (DARPA), ובתוכה משרד הטכנולוגיות הביולוגיות (BTO), שמממן מחקר עתיר סיכון ורחב אופק עבור ביטחון לאומי; מצד שני הרשות לפיתוח מחקר ביומדיקלי מתקדם (BARDA), גוף אזרחי־פדרלי הכפוף למינהל למוכנות אסטרטגית ותגובה (ASPR) במחלקת הבריאות ושירותי האנוש (HHS), שמתמקד באמצעי נגד רפואיים ובהיערכות לאיומי בריאות וחירום ביולוגיים. אלה מפרסמות בשנים האחרונות כיווני מחקר הנוגעים לשאלות שהיו שייכות, עד לפני שני עשורים, לאדריכלות של מדע הבדיוני בלבד: כיצד מזהים פתוגן שעוצב להיות בלתי ניתן לזיהוי על ידי הכלים הקיימים, כיצד מגנים על כוח לוחם מפני אפידמיולוגיה שנוצרה מלאכותית, וכיצד מייצרים חיסונים במהירות שלא ניתן להשיג בתהליכי אישור רגולטורי רגילים. אלה אינן שאלות תיאורטיות: כיווני המחקר הפומביים של ה-BTO - שניתן לאתרם ב-SAM.gov תחת תיאורי תחומים כמו "pandemic preparedness" ו-"biological threat detection" - נוסחו על רקע ניסיון מצטבר שהאיץ בשל מגפת הקורונה[7].


מה שהכניסה המגפה לשיח הצבאי אינו חדש בהכרח מבחינת הלוגיקה - אפידמיות השמידו צבאות לאורך ההיסטוריה, ממגפת אתונה (Plague of Athens) ועד לשפעת הספרדית שהשפיעה על מהלך מלחמת העולם הראשונה - אך מה שהמגפה האחרונה הוסיפה הוא הפגנת יכולת: שניתן לשבש כלכלות ומערכות צבאיות לא על ידי פגיעה בהן אלא על ידי טרנספורמציה של הסביבה הביולוגית שבה הן פועלות. ה-BTO אינה שואלת האם ביולוגיה תהיה כלי מלחמה - היא שואלת כיצד מתמודדים עם סביבה שבה ביולוגיה כבר נמצאת שם, מתוכנתת או לא מתוכנתת, זמינה לכל שחקן בעל מעבדה ומניע.


מה שמחבר את שלושת הכיווונים - הסייבר, עכירות המידע, והביולוגיה - אינו רק השתייכותם לאותו ארגון, ואינו רק שכולם נוגעים לתחומים שהמלחמה הקונבנציונלית טרם פיתחה דוקטרינה יציבה להם. מה שמחברם הוא מבנה הבעיה: בכל אחד מהשלושה, הפגיעות הגדולה ביותר אינה בנקודת השבירה הגלויה, אלא בשכבות הבלתי נראות שמתחתיה. בסייבר, הבעיה אינה הפרצה שמישהו ניצל - אלא הפרצה שלא נמצאה עדיין, שיושבת ברוגע בשורת קוד שנכתבה לפני עשרים שנה ושאיש לא בדק מאז. בעכירות המידע, הבעיה אינה השקר שזוהה - אלא שהוא זוהה כשקר ועדיין פועל על קברניטי ההחלטות כי אין להם יכולת קוגניטיבית לעבד את כמות הנתונים שמזרמת אליהם. ובביולוגיה, הבעיה אינה הפתוגן המוכר שיש נגדו חיסון - אלא מרחב הפתוגנים שאפשר לתכנן, שאין נגדם כלום, ושהזמן הדרוש לפתח תגובה לכל אחד מהם גדול בסדרי גודל מהזמן שלוקח לשחקן מדינתי לפרוס אותם.


ישנו מונח בספרות הביטחון שמתאר את המבנה הזה, ושהשימוש בו גדל באופן ניכר בפרסומי הסוכנויות בשנים האחרונות: אסימטריה אסטרטגית. הכוונה אינה רק לפער בגודל בין יריבים - אלא למצב שבו כוח גדול יותר נוצח באופן שיטתי על ידי יריב קטן יותר שהצליח לפעול בממד שבו לגדול אין יתרון. ההיסטוריה הצבאית מכירה גרסאות רבות של זה, מקרב גאוגמלה ועד לפרצות הסייבר שקבוצות קטנות תקפו בהן תשתיות של מדינות. מה שה-BAA של DARPA מגלה, לקורא שמוכן לשמוע, הוא שהפנטגון - הגדול מבין הגדולים - מודה שבשלושת הממדים שתוארו לעיל, יתרון הגודל שלו אינו מובן מאליו, ושהאסימטריה עובדת לרעתו בדיוק כפי שהיא עובדת בדרך כלל לרעת הגדול.

מעבדת BTO של DARPA — עבודת מחקר ביוטכנולוגי
מעבדת BTO של DARPA — עבודת מחקר ביוטכנולוגי

אך ישנה שאלה שקריאת ה-BAA לא עונה עליה, ושהיא, לדעת מי שעוסק בהבנת מבנה הידע הצבאי, החשובה יותר: מה לא כתוב. מסמכי DARPA הם פומביים בגלל עקרון השקיפות של הרכש הממשלתי - לא מפני שהסוכנות שמחה לחלוק את חשיבתה האסטרטגית עם יריביה. כל BAA הוא, בד בבד, גם הצהרה וגם מסך: הוא חושף את הבעיה ש-DARPA מוכנה להודות בה בפומבי - ומסתיר, בהגדרה, את הבעיות שהיא פותרת כבר, שנמצאות בשלבים מתקדמים מכדי לפרסם הזמנה לרעיונות, ושסיווגן מגן עליהן מפני חשיפה. ה-BAA הוא, באופן מסוים, מפה של השולי - הגבול שממנו הידע הפנימי מתחיל, אך שאחריו אין גישה לציבור.


מסמכי ה-SAM.gov הם, לפיכך, מסמכי ספק. ספק מסוג מיוחד: לא זה של מי שמסתיר הכל, אלא של מי שמסתיר בדיוק מה שיש לו לא לחשוף, ומפרסם את השאר ביושר. כדי לקרוא אותם נכון, יש להניח שתמיד קיים שדה מחקר שלא פורסם - ולשאול, על כל בעיה שמוצגת כפתוחה, אם הבחירה לפרסם אותה דווקא עכשיו אינה אמירה בפני עצמה.


לדוגמה: העובדה ש-DARPA בחרה לפרסם תחרות פתוחה על אוטונומיה בסייבר-הגנה ב-2023 - ולא ב-2017 או ב-2030 - מספרת משהו על לוח הזמנים. לפי ניתוח פרסומים של המכון הלאומי לתקנים וטכנולוגיה (NIST) וגופי סייבר לאומיים נוספים, מספר הפגיעויות שהתגלו בתשתיות קריטיות עלה בחדות בין 2020 ל-2023, ושיטות הניצול שלהן הפכו נגישות לשחקנים שנדרשו בעבר למשאבי מדינה כדי להפעילן[8]. כלומר: DARPA לא בחרה לשאול שאלה על אוטונומיה בסייבר מכיוון שפתאום העלתה אותה לראשונה - אלא מכיוון שהגיעה לנקודה שבה הפתרון שיש לה אינו מספק עוד, וכבר ניסתה את מה שניסתה. התחרות הפתוחה אינה התחלת החשיבה. היא כיסוי פומבי לכשל שכבר אובחן.


אחת הדרכים לאמת פרשנות כזו היא השוואה בין BAA לבין פרסומים אקדמיים שיצאו מאותם צוותי מחקר בשנים שקדמו. מחקרים בתחום הזיהוי האוטומטי של פגיעויות - תת-תחום של הנדסת תוכנה המכונה לעתים ניתוח סטטי ולעתים בדיקת עמידות בקלט אקראי (Fuzzing) - צמחו בנפח פרסומי ניכר בשנים 2018–2022, עם מימון שמקורו, לפי נתוני הכרת מימון במאמרים, בסוכנויות ממשלתיות אמריקאיות[9]. כלומר: לפני ש-DARPA פרסמה BAA פתוח לציבור, היא כבר מימנה ניסיונות - וכנראה הגיעה למסקנה שהניסיונות האלה, על אף תוצאותיהם, אינם פותרים את הבעיה בקנה-מידה הנדרש. הפרסום הפומבי של AIxCC הוא, אם כך, הודאה מאוחרת: שגישת המעבדה הסגורה לא הספיקה.


הדינמיקה הזו - פרסום פומבי כהודאה מאוחרת - אינה ייחודית ל-DARPA, ואינה ייחודית לסייבר. היא מבנה חוזר בכל מקום שבו ארגון מסווג פוגש בעיה שגדלה מהר מכפי שיכולתו הפנימית יכולה לספוג. בביולוגיה, מרכז הגנה מפני נשק ביולוגי של הצבא האמריקאי (USAMRIID) פרסם ב-2021 סדרת מסמכי מדיניות שעסקו בפערים בין קצב ייצור חיסונים לבין קצב הופעה תיאורטי של איומים מהונדסים - ומה שניתן לקרוא בין שורותיהם הוא דיאגנוזה דומה: הפתרונות הקיימים עובדים על ההנחה שלשחקן הפוגע לוקח זמן, שמערכות הניטור מספקות אזהרה מוקדמת, ושיש חלון זמן בין זיהוי לתגובה[10]. ואולם כל אחת משלוש ההנחות הללו הפכה שגויה יותר עם כל שנה שעברה מאז הפצת הביולוגיה הסינתטית מחוץ לקמפוסים של האוניברסיטאות הגדולות. הכלים שנדרשו פעם לתכנן רצף גנטי הפכו, בתוך עשור, לנגישים מבחינת עלות ומורכבות תפעולית לשחקנים שאינם מדינות - הספרות על ביולוגיה סינתטית והגנת־מול ביולוגית מצביעה על ירידה מתמשכת בחסמי הכניסה הטכנולוגיים: כלים, תהליכים וחומרי ידע שהיו בעבר מרוכזים בעיקר במוסדות עתירי משאבים נעשו נגישים יותר, זולים יותר וקלים יותר להפצה - מגמה שמקשה על פיקוח ומצמצמת את יתרון הגודל של מדינות. ה-BTO לא פרסם תחרות פתוחה על ביולוגיה סינתטית מתגוננת כי עלה לו הרעיון - הוא פרסם אותה כי הבעיה התיישבה בתחתית תיבת הדואר של כל אנליסט בכיר שיודע לקרוא את הדוחות הנכונים, ואיש עוד לא יכול לומר שמצא פתרון.


ניתן לטעון, כמובן, שתמונת הפגיעות שמצטיירת מקריאת מסמכי DARPA היא מוגזמת - שהיא נועדה, בחלקה, לצרכים תקציביים, שהצגת עולם מסוכן ומורכב היא דרך יעילה לגייס תקציב בוושינגטון, ושהפנטגון אינו גוף שנוטה לאמינות אנליטית מושלמת כשמדובר בהערכת איומים שמצדיקים את קיומו. הביקורת הזו לגיטימית, ומי שעיין בתולדות התסמונת פער הטילים (missile gap) של שנות ה-50 יזהה את הדפוס: הצגת פיגור טכנולוגי שהיה, בחלקו הנכבד, מיתולוגי, כדי לנמק השקעה שהנהגת הצבא רצתה בה ממילא. אך ישנו הבדל מבני בין שנות ה-50 לבין שנות ה-20 של המאה הנוכחית: ב-1957, אז, המרחב הקיברנטי טרם בא לעולם, ולא ניתן היה לאמת באופן עצמאי אם הפיגור הגרעיני אכן קיים. ב-2026, לעומת זאת, הבדיקה אפשרית מתמיד: כל חוקר אקדמי עם גישה לענן ולמאגרי CVE יכול לסרוק את הנתונים ולראות כיצד מספר הפגיעויות בתשתיות קריטיות - מרשתות חשמל ועד מערכות בקרת תנועה - זינק בשיעורים שאינם מותירים מקום לפרשנות אופטימית.[12]. הנתונים לא מגיעים רק מ-DARPA. הם מגיעים מהסוכנות לאבטחת סייבר ותשתיות של ארצות הברית (CISA), מהאיחוד האירופי דרך סוכנות הסייבר שלו ENISA, ומפרסומים אקדמיים עצמאיים לחלוטין. הסימפוניה של הנתונים אינה מתזמרת על ידי הפנטגון - היא מתכנסת מכיוונים רבים מדי כדי להיות תוצר של ניהול תדמית.


אך אולי השאלה המעניינת יותר אינה אמינות הנתונים, אלא השימוש שנעשה בהם. בנקודה זו, מסמכי ה-SAM.gov נחבטים תמיד ב'קיר הדוקטרינה'. דוקטרינה צבאית היא, בהגדרתה, זיקוק של ניסיון - תולדה של מלחמות עבר, טכנולוגיות שנוסו וכשלים שנצרבו והפכו לכללי ברזל. הדוקטרינה הצבאית האמריקאית, כפי שניתן לקרוא אותה בפרסומים הפומביים של Joint Publication ושל Army Doctrine Publication, נכתבה בעיקרה על ניסיון המאה ה-20: מלחמה קונבנציונלית, לוחמת גרילה, לוחמה בלתי-סדירה. גם הגרסאות המעודכנות ביותר, שנכתבו בצל ניסיון מלחמת עיראק ואפגניסטן, מתמקדות בממדים שהיו קיימים כבר. הממדים ש-DARPA חוקרת - אוטונומיה בסייבר, ניהול סביבת מידע מורכבת תחת לחץ, הגנה ביולוגית בזמן אמת - אינם מוצאים את ביטויים הדוקטרינרי. מה שאומר שגם אם DARPA תמציא פתרון טכני לכל אחת מהבעיות שתוארו לעיל, עדיין תישאר שאלה: מי יודע להפעיל אותו, מתי, ותחת אילו כללי כניסה לפעולה.

מפת תשתיות קריטיות ופגיעויות סייבר מתועדות לפי CISA
מפת תשתיות קריטיות ופגיעויות סייבר מתועדות לפי CISA

הפער הזה - בין יכולת טכנית לדוקטרינה תפעולית - אינו פרט שולי. הוא נמצא, בשינויים, בכל מהפכה טכנולוגית צבאית. כאשר המטוס הוצג לראשונה בסביבות מלחמת העולם הראשונה, הצבאות ידעו לבנות מטוסים לפני שידעו מה לעשות איתם - ויכולות הסיור והתקיפה שהם הפגינו נוצלו לכלל דוקטרינה מלאה רק שנתיים עד ארבע שנים לאחר הופעתם בשדה הקרב[13]. הטנק עבר תהליך דומה: הוצג ב-1916, הופעל בצורה לא יעילה ב-1916–1917, ורק ב-1918 ואחריו פותחה הדוקטרינה שהפכה אותו לנשק מכריע במלחמת העולם השנייה. כיום, ממד הסייבר, ממד המידע, וממד הביולוגיה נמצאים, כל אחד מהם, בנקודה מקבילה: הכלים ייתכן שקיימים - אבל הדוקטרינה שתאמר למפקד מתי להפעיל הגנה סייבר אוטונומית, כיצד לפעול מבצעית כשמחצית המידע שמגיע לו מזויף, ומה אחוז הסיכון הביולוגי שמצדיק חיסון מואץ לכוח - הדוקטרינה הזו עדיין מסתכלת ממרחק על הכלים ומנסה להבין מה היא אמורה לעשות.


מסמכי ה-BAA, כמסמכים שהאתגר שלהם הוא לתאר בעיה לפני שהתשובה קיימת, עושים בעצם את העבודה הדוקטרינרית הראשונית: הם מגדירים את הממד. הם אומרים - גם אם לא בשפה פילוסופית - שישנו תחום-בעיה שדורש חשיבה מחדש, לא רק פתרון טכני. AIxCC, למשל, אינה רק בקשה לכלי - היא הצהרה שהמרחב הדיגיטלי כפי שמוגן היום אינו בר-קיימא, שהגנה אנושית-ידנית לא תוכל להתמודד עם קצב האיומים, ושיש לפתח מחדש את הגדרת האחריות: מי מחליט, מה, ומתי, כשהמחשב הוא שמגן. השאלה האחרונה - שאלת האחריות - היא כנראה המורכבת מכל. בחוק הבינלאומי ההומניטרי, כלל האחריות הפיקודית מניח שישנו אדם שניתן לייחס לו החלטה. כשמערכת אוטונומית מגינה על תשתית ובתוך כך מבצעת פעולה שיש לה השפעה מחוץ לגבולות הריבונות הדיגיטלית של בעליה - מי אחראי? זו אינה שאלה תיאורטית שנשמרת לקורסי תואר שני. היא שאלה ש-DARPA, בשעה שהיא מממנת ומפתחת מערכות סייבר אוטונומיות, חייבת לפתור לפחות כחלק מהגדרת כללי ההפעלה - וה-BAA אינו נוגע בה, לפחות לא בגרסתו הפומבית[14].


כאן, במרחק שבין מה שהמסמכים הפומביים עונים לבין מה שהם שותקים לגביו, שוכן אחד הממצאים המרכזיים של הקריאה הפומבית במסמכי DARPA: השתיקה אינה רשלנות. היא, לעיתים קרובות, מדידה. מה שאין בגרסה הפומבית של ה-BAA מצביע בדיוק כמו מה שכן - על אזורי החיכוך שבהם הפתרון הטכני הקיים מתנגש עם מסגרות משפטיות, מדיניות, ואתיות שהמדינה עדיין לא סיימה לנסח.


ובכל זאת, יש נקודה שבה גם מי שמקבל את כל הנחות היסוד של גישת DARPA - שהאיומים אמיתיים, שהכלים נחוצים, שהדחיפות מוצדקת - צריך לעצור ולשאול שאלה שאינה טכנית כלל. השאלה היא: מה קורה כשהכלים שמשיגים יתרון ביטחוני הופכים, עצמם, לגורם של חוסר יציבות? תשובה אפשרית אחת ניתן למצוא בניסיון המדע הגרעיני לאחר הירושימה: הפיזיקאים שהמציאו את הנשק הפכו, במהרה, לקבוצה שהתריעה בנחרצות על הסכנה שיצרו. ביטאון מדעני האטום, שהוקם ב-1945 על ידי חוקרים שעבדו על פרויקט מנהטן, היה ביטוי מוסדי לתחושה שהטכנולוגיה רצה קדימה מהסדרים הדיפלומטיים שיכלו להכיל אותה. שעון יום הדין שהם יצרו אינו נשק ואינו מדיניות - הוא תזכורת. תזכורת שהמרחק בין יכולת טכנית לחכמה פוליטית יכול להיות ההפרש בין הישרדות לבין קטסטרופה.


האנלוגיה אינה מושלמת - ביולוגיה סינתטית וסייבר אוטונומי אינם מכחידים ערים בשנייה אחת - אך הלוגיקה הבסיסית מחזיקה. כאשר יכולת טכנית מפתחת את עצמה מהר יותר מהמסגרות שנועדו לפקח עליה, האמצעי הבטוח היחיד הוא לא לעצור את הפיתוח - כי עצירה חד-צדדית שווה ערך להכנעה - אלא להכריח את הפיתוח עצמו להכיל שאלות ממשל, שאלות אחריות, ושאלות שקיפות כחלק בלתי נפרד מהפרויקט, לא כנספח שיתווסף לאחר שהמוצר כבר קיים. מסמכי DARPA, בצורתם הנוכחית, אינם עושים זאת. הם מגדירים בצורה מרשימה את הבעיה הטכנית. הם מייצרים תמריצים לפתרונות. אבל שאלת הפיקוח - מי יפקח על הפוקד שמוציא לפועל את ההגנה האוטונומית, כיצד ידע הציבור כמה כוח ניתן למערכות ללא שיקול דעת אנושי ברגע הנוכחי, ומה יקרה אם האלגוריתם יטעה - שאלות אלה אינן מופיעות ב-BAA. לא בגרסת ה-AIxCC, לא בגרסת ה-PREPARE, לא בגרסאות שנסקרו כאן[15].


הנה, אם כן, הפרדוקס שאיתו כדאי לסיים: המוסד שמשרטט את גבולות הפגיעוּת שעל שולחננו, מגדיר רק את מה שנמצא בטווח הראייה שלו - וזהו בדיוק המנדט שלו. וזו ההצדקה לקיומו. אבל המנדט עצמו אינו כולל שאלה על מי מגדיר את גבולות DARPA. ועדות הפיקוח של הקונגרס קיימות, אך עבודתן סדורה ברובה על מחזורי תקציב ולא על שאלות ממשל טכנולוגי עמוקות[16]. הספרות האקדמית על פיקוח על בינה מלאכותית צבאית - שצמחה בשנים האחרונות בקצב ניכר - מצביעה על מחסור חמור בכלים מוסדיים שיאפשרו ביקורת בזמן אמת על מערכות שפותחו בסיווג[17]. ומה שנותר, בסופו של דבר, הוא המסמך הפומבי עצמו: מכרז שיצא לעולם, הגדיר בעיה, ועוצר שם. כי עוצרים שם. וכשעוצרים שם - כשהבעיה מוגדרת אבל שאלת הפיקוח נותרת פתוחה - מה שנוצר אינו פתרון, אלא מסגרת חדשה של אי-ודאות. מסגרת שמאלצת כל קורא רציני לחזור לתחילת המסמך ולשאול: מה, בדיוק, מממנים כאן, ומי, בדיוק, אחראי לתוצאה.

מקורות:

  1. Habermas, J. (1989). The Structural Transformation of the Public Sphere. MIT Press

  2. SAM.gov (2024)

  3. DARPA Strategy (2023). DARPA Innovation Model: Catalyzing Breakthrough Technologies. DARPA Official Website.

  4. Defense Advanced Research Projects Agency (2023). Broad Agency Announcement: AI Cyber Challenge (AIxCC). HR001123S0053.

  5. Office of Naval Research (2024). BAA N00014-24-S-B001: Long Range BAA for Navy and Marine Corps Science and Technology.

  6. Cummings, M. L. (2017). Artificial Intelligence and the Future of Warfare. Chatham House.

  7. BARDA (2023). Broad Agency Announcement (BAA-22-100-SOL-00002). Department of Health and Human Services.

  8. Cybersecurity and Infrastructure Security Agency (CISA) (2023). 2023 Vulnerability Trends Report.

  9. Brundage, M., et al. (2018). The Malicious Use of Artificial Intelligence. Future of Humanity Institute.

  10. USAMRIID (2021). Biological Defense Research Program: Policy and Strategy Updates.

  11. National Academies of Sciences, Engineering, and Medicine (2018). Biodefense in the Age of Synthetic Biology.

  12. ENISA (2023). Threat Landscape for Critical Infrastructures. European Union Agency for Cybersecurity.

  13. Morrow, J. D. (1993). Arms Versus Allies. International Organization

  14. Schmitt, M. N., & Vihul, L. (2017). Autonomous Weapon Systems and International Humanitarian Law. Harvard National Security Journal.

  15. Roff, H. M., & Moyes, R. (2016). Autonomy, Artificial Intelligence and Lethal Control. Article 36.

  16. Department of Defense (2024). FY 2024 Budget Request Overview Book. Office of the Under Secretary of Defense (Comptroller).

  17. Dafoe, A. (2018). AI Governance: A Research Agenda. Future of Humanity Institute, University of Oxford.

תגובות


בקרו בחנות שלנו

הגמל המעופף מביא לכם פריטים יוצאי דופן ומותרות של ימי קדם אל מפתן דלתכם, כמו גם כלים ועזרים למסעות מחקר והרפתקה.

חדש!!!

האם יש לכם סיפורים משפחתיים מרתקים, תמונות נדירות או מסמכים מרגשים שעוברים מדור לדור? עכשיו זה הזמן לשתף אותם!

image-from-rawpixel-id-6332455-png.png

אנו שמחים להכריז על קטגוריה חדשה: 

השתתפו במסע אופן הזמן

Ofan Logo a.png

מסע רב חושי בנבכי הזמן, שבו המרבד העשיר של הציוויליזציות הקדומות מתעורר לחיים ושואב אותנו אל תוכו.  

Site banner copy_edited.png
bottom of page