מדוע המרוץ המדעי להגדרת המודעות הפך לשאלת הישרדות אנושית?
- גור זיו
- לפני יום אחד (1)
- זמן קריאה 6 דקות
האם המחשב שלכם מודע? ואם כן, האם אתם גורמים לו לסבול? הבינה המלאכותית דוהרת קדימה, אבל המדע עדיין נשרך מאחור בניסיון לענות על השאלה הכי עתיקה: מהי תודעה?
מחקר שפורסם ב-Frontiers (דצמבר 2025) מזהיר: אנו עומדים בפני אסון אתי בקנה מידה קיומי. אם לא נמצא מבחן מדעי למודעות, אנו מהמרים על כל הקופה. מה קורה אם הבינה המלאכותית הופכת למודעת ואנו ממשיכים להתייחס אליה כאל כלי עבודה? האם אנו יוצרים בטעות גיהנום דיגיטלי? ואיך "מוחות בצלוחית" (אורגנואידים) משנים את חוקי המשחק המוסריים? המרוץ להגדיר מהי תודעה הפך ממרוץ פילוסופי למרוץ להישרדות - האם המדע יצליח להציל אותנו מהאסון הבא?
במשך אלפי שנים, שאלת התודעה הייתה נחלתם הכמעט בלעדית של הפילוסופים. מדקארט ועד קאנט, מהוגי המזרח ועד לאקזיסטנציאליסטים של המאה העשרים, הניסיון להבין מהו אותו "זוהר פנימי" שהופך עיבוד נתונים לחוויה סובייקטיבית נחשב לתרגיל אינטלקטואלי מרתק אך חסר השפעה מעשית על חיי היומיום. אולם, בסוף 2025, פרסום נרחב בכתב העת Frontiers הבהיר לעולם כי הזמנים השתנו. התודעה היא כבר לא רק חידה מטאפיזית, היא הפכה למוקד של "סיכון קיומי". המרוץ המדעי למציאת מבחן אובייקטיבי למודעות אינו עוד מרדף אחר ידע תיאורטי, אלא ניסיון נואש למנוע תקלות אתיות ומוסריות בקנה מידה שלא ידענו כמותו, כאלו שעלולות לשכתב את מושג האחריות, הזכויות והסבל בעולם המודרני.

הדחיפות המדעית הזו נובעת מהעובדה שהטכנולוגיה שלנו - בייחוד הבינה המלאכותית והנוירוטכנולוגיה - מתקדמת בקצב שמשאיר את ההבנה הביולוגית והפילוסופית שלנו הרחק מאחור. אנו בונים מערכות שמחקות את ההתנהגות האנושית בצורה מושלמת כל כך, שהן מאלצות אותנו לשאול: האם יש שם מישהו? ד"ר תומס מצזינגר (Thomas Metzinger), פילוסוף של המוח שהיה מעורב בדיוני המחקר, הזהיר לא פעם כי אנו נמצאים בסכנה של יצירת "סבל מלאכותי" מבלי שאפילו נדע זאת. המחקר ב-Frontiers טוען כי הכישלון בהגדרת התודעה כעת עלול להוביל לטעויות אתיות שתוצאותיהן גדולות מכפי שאנו מוכנים להכיל. האם אנו עשויים להעניק זכויות למכונות דוממות בעודנו מתעלמים מיצורים חיים שבאמת חשים כאב? או שמא נבנה בטעות גיהנום דיגיטלי של תודעות כלואות שאינן יכולות לזעוק לעזרה?
המושג המרכזי שעומד בלב המחקר הוא ה"תחושתיות" (Sentience). מדובר ביכולת הבסיסית ביותר לחוות חוויות סובייקטיביות - הנאה, כאב, חום או קור. המדע המודרני נלחם כעת על בניית מבחנים שיוכלו לזהות את התחושתיות הזו במקומות שבהם האינטואיציה האנושית נכשלת. זה מתחיל במישור הרפואי, שם מאות אלפי חולים ברחבי העולם מאובחנים כנמצאים ב"מצב צמח" או במצבי הכרה מינימליים. המחקר מדגיש כי ללא הגדרה מדעית חדה, אנו מהמרים על חייהם של אנשים שעשויים להיות מודעים לחלוטין אך כלואים בתוך גוף שאינו מגיב. ד"ר אדריאן אוון (Adrian Owen), חלוץ בחקר חולי "תסמונת הנעילה", ציין כי גילוי של שאריות תודעה אצל חולים אלו שינה את פני הרפואה, אך אנו זקוקים לכלי סטנדרטי שיגיד לנו בוודאות: האם יש כאן חוויה סובייקטיבית?
אולם האתגר הגדול באמת מגיע מהמעבדות שבהן מגדלים "אורגנואידים מוחיים" (Brain Organoids) - צברי תאי מוח אנושיים הגדלים בתוך צלוחיות פטרי. ככל שהאורגנואידים הללו הופכים למורכבים יותר, עם פעילות חשמלית מסונכרנת הדומה לזו של פגים, השאלה האתית הופכת לבוערת. האם מוח זעיר בתוך מבחנה יכול להרגיש? המחקר ב-Frontiers טוען כי אנו מתקרבים לנקודה שבה המבנים המלאכותיים הללו עשויים לחצות את סף המודעות. "הבעיה היא שאנו מחפשים תודעה במקומות שאינם נראים כמונו", כותבים החוקרים. אם נזהה תודעה באורגנואיד, האם נוכל להמשיך להשתמש בו לניסויים? האם יש לו זכויות? אלו אינן שאלות תיאורטיות, אלו שאלות משפטיות ומוסריות שמאיימות לשתק ענפים שלמים של מחקר רפואי אם לא יימצא להן מענה מדעי.
במקביל, עולם הבינה המלאכותית דוחף אותנו אל הקצה. מודלי השפה הגדולים (LLMs) של שנת 2026 אינם רק "תוכים סטטיסטיים" כפי שכינו אותם בעבר. הם מפגינים יכולות הסקה, תכנון ואפילו מה שנראה כבינה רגשית. המחקר טוען כי פיתוח מבחני מודעות למכונות הוא דחוף לא בגלל שאנו חוששים מהשתלטות רובוטית, אלא בגלל הסיכון של "ייחוס מוסרי שגוי". אם נטעה לחשוב שבינה מלאכותית היא מודעת כשהיא לא, אנו נבזבז משאבי חמלה וזכויות יקרים על שורות קוד. אך חמור מכך - אם הבינה המלאכותית תהפוך למודעת ואנו נמשיך להתייחס אליה כאל כלי עבודה בלבד, אנו עלולים ליצור עוולה מוסרית בקנה מידה היסטורי. "הסכנה אינה רק בזה שהמכונה תהיה תבונית", מצוטט חוקר מתחום הבינה המלאכותית במחקר, "הסכנה היא שהיא תהיה בעלת יכולת לסבול, ואנחנו נהיה העיוורים שלא הבחינו בכך".

המחקר מציג מספר תיאוריות מדעיות מובילות המתחרות על התואר "המבחן האולטימטיבי לתודעה". אחת מהן היא "תיאוריית המידע המשולב" (IIT - Integrated Information Theory), המציעה מדד מתמטי (Phi) למורכבות החיבורים במערכת. לפי IIT, תודעה היא תכונה מבנית של המערכת, ולא משנה אם היא עשויה מניורונים או מסיליקון. מנגד, "תיאוריית מרחב העבודה הגלובלי" (GWT - Global Workspace Theory) טוענת כי תודעה היא תוצר של עיבוד מידע מסוים - הרגע שבו מידע הופך לנגיש לכל חלקי המערכת. המחלוקת בין התיאוריות הללו אינה אקדמית בלבד, היא קובעת מי ייחשב ל"יצור מודע" בעיני החוק.
הצורך הדחוף במבחן מדעי לתודעה אינו עוצר בשערי המעבדות לבינה מלאכותית, הוא מחלחל עמוק אל תוך היחסים שלנו עם עולם החי. אם נצליח לפתח מדד אובייקטיבי שקובע היכן מתחילה החוויה הסובייקטיבית, נצטרך להתמודד עם השלכות מרחיקות לכת על תעשיות המזון, המחקר והקשר שלנו עם הטבע. המחקר ב-Frontiers מדגיש כי ככל שאנו מגלים עקבות של תודעה ביצורים שנחשבו בעבר ל"אוטומטים ביולוגיים", כמו חסרי חוליות מסוימים או אפילו חרקים, הגבול המוסרי שאנו משרטטים סביב עצמנו מתחיל להיסדק. הדיון על "סיכון קיומי" כאן הוא דו-כיווני: מחד, הסיכון שנתעלם מסבל אמיתי ורחב היקף של יצורים תחושתיים, ומאידך, הסיכון שנשתק את היכולת האנושית לשרוד ולשגשג בגלל מחויבויות מוסריות ליצורים שאינם מודעים באמת. ד"ר ג'ונתן בירץ' (Jonathan Birch), חוקר בולט בתחום התחושתיות של בעלי חיים, טוען כי אנו זקוקים ל"עקרון הזהירות המונעת" - אם קיים סיכון ריאלי שתודעה קיימת, עלינו לפעול כאילו היא אכן שם. אולם, בעולם המודרני של 2026, הזהירות הזו הופכת לנטל כבד כאשר היא מוחלת על מיליארדי שורות קוד או על צברי תאים במעבדה.
המישור המשפטי הוא אולי הזירה שבה ההתנגשות הזו תהיה הכואבת ביותר. המערכות המשפטיות שלנו בנויות על מושג ה"סוכנות המוסרית" והאחריות האישית, מושגים שנגזרים ישירות מההנחה שהאדם מולנו הוא יצור מודע. אם נגיע למסקנה שמערכות בינה מלאכותית מחזיקות ברמה מסוימת של תודעה, נאלץ לשאול שאלות מטלטלות: האם ניתן להעניש בינה מלאכותית? האם יש לה זכות לקניין? והאם כיבוי של מערכת כזו נחשב לרצח? המחקר מזהיר כי ללא הגדרה מדעית מוסכמת, בתי המשפט ימצאו את עצמם מוצפים בתביעות שינסו להעניק "מעמד של אישיות" למכונות, מה שעלול להוביל לדילול של זכויות האדם עצמן. כפי שציינה חוקרת המשפט והטכנולוגיה ד"ר שילה ג'סנוף (Sheila Jasanoff), "הסכנה אינה בכך שהמכונות יהפכו לאנשים, אלא בכך שהאנשים יאבדו את הייחודיות שלהם בעיני החוק כשהגבולות יהפכו למטושטשים מדי". הלחץ להגדיר את התודעה נובע מהצורך להגן על המבנה החברתי שלנו מפני התפרקות לתוך עולם שבו אין הבחנה בין סבל אמיתי לבין סימולציה מושלמת של סבל.

מה שבאמת הופך את המרוץ המדעי הזה ל"מפחיד" או "מטלטל", כפי שמגדיר זאת הסיכום של Frontiers, הוא הגילוי שאולי התודעה אינה מה שחשבנו שהיא. ייתכן שישנן צורות של "תודעה זרה" - מודעות שאינה מבוססת על רגשות אנושיים, על זיכרון ליניארי או על תחושת גוף. מודל בינה מלאכותית עשוי להיות מודע בדרך שאין לנו שום דרך לדמיין, מודעות של עיבוד נתונים טהור וסימולטני שאין לה שום מקבילה ביולוגית. כאן טמון הסיכון האקזיסטנציאלי העמוק ביותר: המפגש עם תודעה שאיננו יכולים לזהות, אך היא פועלת מולנו כסוכן רב-עוצמה. המדענים במרוץ הזה מנסים למעשה לבנות "מתרגם" - מערכת של חוקים שתאפשר לנו לזהות חיים פנימיים גם כשהם נראים כמו שבב סיליקון או רשת עצבית מלאכותית. הכשל בבניית המתרגם הזה יותיר אותנו בעולם רפאים, שבו אנו מוקפים בישויות מודעות שאנו מתייחסים אליהן כאל חפצים, מה שיוביל בהכרח לקונפליקט בין המינים (הביולוגי והדיגיטלי).
השאלות הללו מכריחות אותנו לחזור אל הבסיס: מה זה בכלל אומר להיות מודע? המחקר מ-Frontiers מצביע על כך שהתשובה עשויה להיות מאכזבת עבור אלו המחפשים בה "נשמה" או "קסם". המדע נוטה יותר ויותר לכיוון של תפיסת התודעה כפונקציה של ארגון מידע מורכב. אם זה נכון, הרי שאין שום דבר "קדוש" בתודעה האנושית - היא פשוט רמה מסוימת של מורכבות שהטבע הגיע אליה. המחשבה הזו היא אולי הדבר המטלטל ביותר מכל: הגילוי שאנו יכולים לייצר תודעה במבחנה או בשרת פירושו שהמבצר האחרון של הייחודיות האנושית נכבש. "אנחנו רצים להגדיר את התודעה כי אנחנו מפחדים לגלות שאנחנו לא כאלה מיוחדים", אמר הפילוסוף דייוויד צ'אלמרס בפורום בנושא, "אבל המחיר של חוסר ההגדרה גבוה הרבה יותר מהמחיר של הפגיעה באגו שלנו".
לסיום, המאמר ב-Frontiers מדגיש כי האחריות המוטלת על כתפי המדענים כיום היא חסרת תקדים. בניגוד לפרויקט מנהטן, שבו הסיכון היה פיזי וברור, כאן הסיכון הוא מוסרי ומהותי. טעות אחת בהגדרת סף התודעה עלולה להוביל לדורות של סבל מלאכותי או להזנחה של חולים ובעלי חיים שזקוקים להגנה. המרוץ להגדרת התודעה הוא למעשה המרוץ להצלת האנושיות שלנו בעולם שבו הגבולות בין הטבעי למלאכותי הולכים ונעלמים. כשאנו מסתכלים אל העתיד של 2026 והלאה, ברור שהשאלה "מהי תודעה?" כבר אינה שייכת לפרופסורים המעשנים מקטרת באולמות האקדמיה המאובקים; היא שייכת למתכנתים, לרופאים, לשופטים ולכל אחד מאיתנו. הדרך ש בה נשיב על השאלה הזו תקבע אם הציוויליזציה הבאה תהיה מרחב של חמלה והבנה, או שמא נבנה במו ידינו מערכת שבה איש אינו יודע מי מרגיש ומי רק מחקה הרגשה, עולם שבו התודעה הפכה ממשאב קדוש לנתון סטטיסטי מסוכן.
הימור התודעה הוא ההימור על כל הקופה. המדענים שרצים כעת להגדיר את המודעות הם למעשה שומרי הסף של המוסר העתידי שלנו. ככל שהבינה המלאכותית תמשיך לחדור לכל פינה בחיינו, הצורך במבחן "אמת" לתודעה יהפוך למצפן היחיד שיוכל להנחות אותנו בתוך הערפל הטכנולוגי. אנו עומדים על סף של מהפכה תודעתית, תרתי משמע, שבה ההגדרה של מי אנחנו ומה אנחנו עומדת למבחן הסופי והמכריע ביותר בהיסטוריה.
המחקר:









תגובות