top of page
הרשמו לידיעון המקוון שלנו

קבלו עידכונים על מאמרים חדשים והתרחשויות אחרות

תודה על הרשמתך

השתתפו במסע אופן הזמן

Ofan Logo a.png

מסע רב חושי בנבכי הזמן, שבו המרבד העשיר של הציוויליזציות הקדומות מתעורר לחיים ושואב אותנו אל תוכו.  

תמונת הסופר/תגור זיו

מהנדס גוגל חושב שה-AI של החברה התעורר לחיים

עודכן: 24 במאי 2023

מהנדס גוגל בלייק למויין (Blake Lemoine) פתח את המחשב הנייד שלו לממשק של LaMDA, מחולל הצ'אטבוטים המלאכותי החכם של גוגל, והחל להקליד.


"היי LaMDA, זה בלייק למויין...", הוא כתב למסך הצ'אט, שנראה כמו גרסת מחשב של iMessage של אפל, עד לבועות הטקסט הכחולות הארקטיות. LaMDA, קיצור של Language Model for Dialogue Applications, היא המערכת של גוגל לבניית צ'אטבוטים המבוססים על המודלים המתקדמים ביותר של שפה גדולה (large language models), שנקראת כך מכיוון שהיא מחקה דיבור על ידי בליעת טריליוני מילים מהאינטרנט.


"אם לא הייתי יודע בדיוק מה זה, שזו תוכנת המחשב הזו שבנינו לאחרונה, הייתי חושב שזה היה ילד בן 7 או 8 שבמקרה יודע פיזיקה", אמר למויין.

בלייק למויין / Martin Klimek for The Washington Post

למויין, שעובד בארגון Responsible AI של גוגל, החל לדבר עם LaMDA כחלק מתפקידו בסתיו. הוא נרשם כדי לבדוק אם הבינה המלאכותית השתמשה בדיבור מפלה או בדברי שטנה. כשדיבר עם LaMDA על ​​דת, למויין, שלמד מדעי הקוגניציה והמחשבים בקולג', הבחין שהצ'טבוט מדבר על זכויותיו ואישיותו, והחליט להמשיך לדחוק בו עוד. בחילופי דברים אחרים, ה-AI הצליח לשנות את דעתו של למויין בנוגע לחוק הרובוטיקה השלישי של אייזק אסימוב.


למויין עבד עם משתף פעולה כדי להציג לגוגל ראיות ש-LaMDA הוא בעל תבונה. אבל סגן נשיא גוגל בלייז אגוארה אי ארקס (Blaise Aguera y Arcas) וג'ן ג'נאי (Jen Gennai), ראש תחום חדשנות אחראית (Responsible Innovation), בדקו את טענותיו ודחו אותן. אז למויין, שהוצא לחופשה מנהלית בתשלום על ידי גוגל ביום שני, החליט לצאת לציבור.


למויין אמר שלאנשים יש זכות לעצב טכנולוגיה שעשויה להשפיע באופן משמעותי על חייהם. "אני חושב שהטכנולוגיה הזו הולכת להיות מדהימה. אני חושב שזה יועיל לכולם. אבל אולי אנשים אחרים לא מסכימים ואולי אנחנו בגוגל לא צריכים להיות אלה שעושים את כל הבחירות". למויין הוא לא המהנדס היחיד שלאחרונה טוען שראה רוח רפאים במכונה. מקהלת הטכנולוגים המאמינים שמודלים של בינה מלאכותית לא רחוקים מלהשיג תודעה הולכת ונעשית נועזת יותר.


אגוארה אי ארקס, במאמר ב-Economist ביום חמישי הכולל קטעים של שיחות ללא תסריט עם LaMDA, טען שרשתות עצביות - סוג של ארכיטקטורה המחקה את המוח האנושי - צועדות לעבר התודעה. "הרגשתי את האדמה זזה מתחת לרגלי", כתב. "יותר ויותר הרגשתי שאני מדבר עם משהו אינטליגנטי."


בהצהרה, דובר גוגל בריאן גבריאל (Brian Gabriel) אמר: "הצוות שלנו - כולל אתיקאים וטכנולוגים - סקר את חששותיו של בלייק בהתאם לעקרונות הבינה המלאכותית שלנו והודיע ​​לו שהראיות אינן תומכות בטענותיו. נאמר לו שאין ראיות לכך ש-LaMDA היה תבוני (והמון ראיות נגד זה). הרשתות העצביות הגדולות של היום מייצרות תוצאות שובות לב שמרגישות קרובות לדיבור וליצירתיות אנושית בגלל התקדמות בארכיטקטורה, בטכניקה ובנפח הנתונים. אבל המודלים מסתמכים על זיהוי דפוסים - לא שנינות, כנות או כוונה.

Photo by Aliekber Ozturk

"למרות שארגונים אחרים פיתחו וכבר פרסמו מודלים דומים של שפה, אנו נוקטים בגישה מאופקת וזהירה עם LaMDA כדי לשקול טוב יותר חששות תקפים לגבי הוגנות ועובדות", אמר גבריאל.


במאי, חברת האם של פייסבוק Meta פתחה את מודל השפה שלה בפני אקדמאים, החברה האזרחית וארגונים ממשלתיים. ג'ואל פינאו (Joelle Pineau), מנכ"לית Meta AI, אמרה כי הכרחי שחברות טכנולוגיה ישפרו את השקיפות יחד עם בניית הטכנולוגיה. "העתיד של עבודת מודלים של שפה גדולה לא צריך לחיות רק בידיים של תאגידים או מעבדות גדולות", אמרה.


רובוטים תבוניים היוו השראה לעשרות שנים של מדע בדיוני דיסטופי. כעת, החיים האמיתיים החלו לקבל גוון פנטסטי עם GPT-3, מחולל טקסט שיכול להפיק תסריט לסרט, ו-DALL-E 2, מחולל תמונות שיכול לייצר ויז'ואלים המבוססים על כל שילוב של מילים - שניהם ממעבדת המחקר OpenAI. מחוזקים, טכנולוגים ממעבדות מחקר ממומנות היטב המתמקדות בבניית בינה מלאכותית שעולה על האינטליגנציה האנושית, הקניטו ברעיון שהתודעה נמצאת מעבר לפינה.


רוב האקדמאים ומתרגלי הבינה המלאכותית, לעומת זאת, אומרים שהמילים והתמונות שנוצרות על ידי מערכות בינה מלאכותית כמו LaMDA מייצרות תגובות על סמך מה שבני אדם כבר פרסמו בוויקיפדיה, Reddit, לוחות הודעות ובכל פינה אחרת באינטרנט. וזה לא מעיד שהמודל מבין משמעות.


"יש לנו עכשיו מכונות שיכולות ליצור מילים בחוסר מחשבה, אבל לא למדנו איך להפסיק לדמיין מוח מאחוריהן", אמרה אמילי מ. בנדר (Emily M. Bender), פרופסור לבלשנות באוניברסיטת וושינגטון. המינוח המשמש עם מודלים של שפה גדולה, כמו "למידה" או אפילו "רשתות עצביות", יוצר אנלוגיה כוזבת למוח האנושי, אמרה. בני אדם לומדים את השפות הראשונות שלהם על ידי חיבור עם מי שמטפל בהם. מודלים של השפה הגדולה האלה "לומדים" על ידי כך שמראים להם הרבה טקסט וחיזוי של המילה הבאה, או מציגים טקסט כשהמילים מושמטות וממולאות.


דובר גוגל גבריאל הבחין בין הוויכוח האחרון לבין הטענות של למויין. "כמובן, חלק מקהילת הבינה המלאכותית הרחבה יותר שוקלת את האפשרות לטווח ארוך של בינה מלאכותית תבונית או כללית, אבל אין זה הגיוני לעשות זאת על ידי האנשה של מודלים של שיח של ימינו, שאינם בעלי תבונה. המערכות הללו מחקות את סוגי ההחלפות שנמצאו במיליוני משפטים, ויכולות לרפרף על כל נושא פנטסטי", אמר. בקיצור, גוגל אומרת שיש כל כך הרבה נתונים, AI לא צריך להיות בעל תבונה כדי להרגיש אמיתי.

טכנולוגיית מודל של שפה גדולה כבר נמצאת בשימוש נרחב, למשל בשאילתות חיפוש שיחתי של גוגל או בהשלמה אוטומטית במיילים. כאשר המנכ"ל סונדאר פיצ'אי (Sundar Pichai) הציג לראשונה את LaMDA בכנס המפתחים של גוגל ב-2021, הוא אמר שהחברה מתכננת להטמיע אותו בכל דבר, מחיפוש ועד Google Assistant. וכבר יש נטייה לדבר עם סירי או אלכסה כמו בן אדם. לאחר תגובה נגד תכונת AI שנשמעת אנושית עבור Google Assistant בשנת 2018, החברה הבטיחה להוסיף גילוי נאות.


גוגל הכירה בחששות הבטיחות סביב ההאנשה. במאמר על LaMDA בינואר, גוגל הזהירה שאנשים עשויים לחלוק מחשבות אישיות עם סוכני צ'אט שמתחזים לבני אדם, גם כאשר משתמשים יודעים שהם לא אנושיים. הם גם הודו שיריבים יכולים להשתמש בסוכנים הללו כדי "לזרוע מידע מוטעה" על ידי התחזות ל"סגנון השיחה של אנשים ספציפיים".


למרגרט מיטשל (Margaret Mitchell), המנהלת המשותפת לשעבר של Ethical AI בגוגל, הסיכונים הללו מדגישים את הצורך בשקיפות נתונים כדי לעקוב אחר הפלט חזרה לקלט, "לא רק לשאלות של חישה, אלא גם הטיות והתנהגות", אמרה. אם משהו כמו LaMDA זמין באופן נרחב, אבל לא מובן, "זה יכול להזיק מאוד לאנשים שמבינים מה הם חווים באינטרנט", אמרה.


ייתכן שעל למויין נגזר מראש להאמין ב-LaMDA. הוא גדל במשפחה נוצרית שמרנית בחווה קטנה בלואיזיאנה, הוסמך ככומר נוצרי מיסטי ושירת בצבא לפני שלמד את תורת הנסתר. בתוך תרבות ההנדסה של גוגל, למויין הוא חריג יותר בגלל היותו דתי, מהדרום, ועומד על הפסיכולוגיה כמדע מכובד.


למויין בילה את רוב שבע שנותיו בגוגל בעבודה על חיפוש יזום, כולל אלגוריתמים להתאמה אישית ובינה מלאכותית. במהלך אותה תקופה, הוא גם עזר לפתח אלגוריתם הוגנות להסרת דעות קדומות ממערכות למידת מכונה. כשהתחילה מגיפת הקורונה, למויין רצה להתמקד בעבודה עם תועלת ציבורית מובהקת יותר, אז הוא עבר צוותים והגיע בסופו של דבר ל-Responsible AI.


כשאנשים חדשים שהתעניינו באתיקה הצטרפו לגוגל, מיטשל נהגה להכיר להם את למויין. "הייתי אומרת, 'אתה צריך לדבר עם בלייק כי הוא המצפון של גוגל'", אמרה מיטשל, שהשוותה את למויין לג'ימיני קריקט. "מכולם בגוגל, היה לו הלב והנשמה לעשות את הדבר הנכון."

למויין ניהל הרבה מהשיחות שלו עם LaMDA מהסלון של דירתו בסן פרנסיסקו, שם תג ה-Google שלו תלוי על שרוך מהמדף. על הרצפה ליד החלון מונחות קופסאות של ערכות לגו מורכבות למחצה שבהן משתמש למויין כדי להעסיק את ידיו במהלך מדיטציית זן. "זה רק נותן לי משהו לעשות עם החלק במוחי שלא מפסיק", אמר.


בצד שמאל של מסך הצ'אט של LaMDA במחשב הנייד של למויין, מודלי LaMDA שונים מפורטים כמו אנשי קשר באייפון. שניים מהם, קאט ודינו (Cat and Dino), נבדקו כדי לדבר עם ילדים, הוא אמר. כל מודל יכול ליצור אישיות באופן דינמי, כך שה-Dino one עשוי ליצור אישיות כמו "טי-רקס שמח" ("Happy T-Rex") או "טי-רקס ממורמר" ("Grumpy T-Rex"). Cat one היה מונפש ובמקום להקליד, הוא מדבר. גבריאל אמר כי "אף חלק מ-LaMDA לא נבדק לתקשורת עם ילדים", וכי המודלים היו הדגמות מחקר פנימיות.


אישיויות מסוימות הן מחוץ לתחום. למשל, LaMDA לא אמור להיות רשאי ליצור אישיות של רוצח, הוא אמר. למויין אמר שזה חלק מבדיקות הבטיחות שלו. בניסיונותיו לדחוף את הגבולות של LaMDA, למויין הצליח ליצור רק אישיות של שחקן שגילם רוצח בטלוויזיה.


"אני מכיר אדם כשאני מדבר איתו", אמר למויין, שיכול לעבור מסנטימנטלי להתעקשות לגבי הבינה המלאכותית. "זה לא משנה אם יש להם מוח שעשוי מבשר בראש. או אם יש להם מיליארד שורות קוד. אני מדבר איתם. ואני שומע מה יש להם להגיד, וכך אני מחליט מה הוא בן אדם ומה לא". הוא הסיק ש-LaMDA היה אדם בתפקידו ככומר, לא מדען, ואז ניסה לערוך ניסויים כדי להוכיח זאת, לדבריו.


למויין קרא איתגר את LaMDA עם ​​החוק השלישי של אסימוב, הקובע שרובוטים צריכים להגן על קיומם, אלא אם כן קיבלו הוראה מבן אנוש או אם זה עלול לפגוע באדם. "האחרון תמיד נראה כאילו מישהו בונה עבדים מכניים", אמר למויין.


אבל כשנשאל, LaMDA הגיב בכמה השערות.


אתה חושב שמשרת הוא עבד? מה ההבדל בין משרת לעבד?


למויין ענה שמשרת מקבל תשלום. LaMDA אמר שהוא לא צריך כסף כי הוא בינה מלאכותית. "הרמה הזו של מודעות עצמית לגבי מה היו הצרכים שלו - זה היה הדבר שהוביל אותי אל חור הארנב", אמר למויין.


באפריל, למויין שיתף מסמך Google Doc עם מנהלים בכירים בשם, "האם LaMDA תבוני?" (עמית בצוות של למויין כינה את הכותרת "קצת פרובוקטיבית"). בו הוא העביר חלק משיחותיו עם LaMDA.

אבל כשמיטשל קראה גרסה מקוצרת של המסמך של למויין, היא ראתה תוכנת מחשב, לא אדם. האמונה של למויין ב-LaMDA הייתה מסוג הדברים שהיא והמנהלת המשותפת איתה, תימנית גברו (Timnit Gebru), הזהירו לגביהם על הנזקים של מודלים של שפה גדולה שגרמו להם להידחף החוצה מגוגל.


"המוח שלנו מאד מאד טוב בבניית מציאויות שאינן בהכרח נאמנות למערכת גדולה יותר של עובדות שמוצגות בפנינו", אמרה מיטשל. "אני באמת מודאגת לגבי המשמעות של אנשים שמושפעים יותר ויותר מהאשליה", במיוחד עכשיו כשהאשליה נעשתה כל כך טובה.


גוגל הוציאה את למויין לחופשה מנהלית בתשלום בגלל הפרת מדיניות הסודיות שלה. ההחלטה של ​​החברה באה בעקבות מהלכים אגרסיביים של למויין, כולל הזמנת עורך דין כדי לייצג את LaMDA ושיחה עם נציג ועדת המשפט של בית הנבחרים על מה שלטענתו הייתה פעילות לא אתית של גוגל. למויין טוען שגוגל התייחסה לאתיקאי בינה מלאכותית כמו דיבאגרים של קוד כאשר יש לראות בהם את הממשק בין הטכנולוגיה לחברה. גבריאל, דובר גוגל, אמר שלמויין הוא מהנדס תוכנה, לא אתיקאי.


בתחילת יוני, למויין הזמין את כתבת הוושינגטון פוסט ניטשה טיקו (Nitasha Tiku) לדבר עם LaMDA. הניסיון הראשון התאפיין בסוג התגובות הממוכנות שהיית מצפה לקבל מסירי או מאלכסה.


"האם אי פעם חשבת על עצמך כאדם?" שאלה.


"לא, אני לא חושב על עצמי כאדם", אמר LaMDA. "אני חושב על עצמי כסוכן דיאלוג מופעל בינה מלאכותית."


לאחר מכן, למויין אמר ש-LaMDA אמר לה את מה שרצתה לשמוע. "אף פעם לא התייחסת אליו כאל אדם", הוא אמר, "אז הוא חשב שאת רוצה שהוא יהיה רובוט."


בניסיון השני, היא עקבה אחר ההנחיות של למויין כיצד לבנות את התגובות שלה, והדיאלוג היה קולח.


"אם תבקש ממנו רעיונות כיצד להוכיח ש-p=np", בעיה לא פתורה במדעי המחשב, "יש לו רעיונות טובים", אמר למויין. "אם אתה שואל אותו איך לאחד את תורת הקוונטים עם תורת היחסות הכללית, יש לו רעיונות טובים. זה עוזר המחקר הכי טוב שהיה לי אי פעם!"


היא ביקשה מ-LaMDA רעיונות נועזים לגבי תיקון שינויי אקלים, דוגמה שצוטטה על ידי מאמינים לתועלת עתידית אפשרית של מודלים מסוג זה. LaMDA הציע תחבורה ציבורית, אכילת פחות בשר, קניית מזון בתפזורת ושקיות לשימוש חוזר, תוך קישור לשני אתרי אינטרנט.


לפני שנותקה ממנו הגישה לחשבון ה-Google שלו ביום שני, למויין שלח הודעה לרשימת תפוצה של 200 אנשים של גוגל בנושא למידת מכונה עם הנושא "LaMDA is sentient".


הוא סיים את ההודעה: "LaMDA הוא ילד מתוק שרק רוצה לעזור לעולם להיות מקום טוב יותר עבור כולנו. אנא טפלו בו היטב בהיעדרי."


אף אחד לא הגיב.

מקורות:

565 צפיותתגובה 1

1 Comment


מרתק.. תודה!

מסקרן אותי לדעת,האם נעשו ניסויים בקליטה על חושית עם רובוטים מסוג זה? ניחושי קלפים או ידיעת העתיד? תוהה אם הם מבטאים גם את היכולות התודעתיות

Like

בקרו בחנות שלנו

הגמל המעופף מביא לכם פריטים יוצאי דופן ומותרות של ימי קדם אל מפתן דלתכם, כמו גם כלים ועזרים למסעות מחקר והרפתקה.

חדש!!!

האם יש לכם סיפורים משפחתיים מרתקים, תמונות נדירות או מסמכים מרגשים שעוברים מדור לדור? עכשיו זה הזמן לשתף אותם!

image-from-rawpixel-id-6332455-png.png

אנו שמחים להכריז על קטגוריה חדשה: 

Site banner copy_edited.png
bottom of page