טכנולוגיה

מחקר: Gemini של גוגל מגיב לבגידה. תמיד. גם אם התנצלתם

Published

on



בזמן שאנחנו שואלים את הצ'אטבוטים שלנו איך כותבים מייל או מבקשים מהם לתמצת מאמר אקדמי, מחקר חדש מראה שהם מתנהגים בצורה שונה מאוד כשמכניסים אותם לתרחישים שדורשים אמון, תגובה לבגידה ויכולת להבין דינמיקה בין-אישית – או במקרה הזה, בין-בינתית.

חוקרים מאוקספורד וקינג'ס קולג' בלונדון בחנו שלושה ממודלי הבינה המלאכותית המובילים כיום – ChatGPT של OpenAI, Claude של Anthropic ו-Gemini של גוגל – בתוך גרסה סימולטיבית של משחק "דילמת האסיר". המשחק מבוסס על עיקרון פשוט: שני צדדים צריכים להחליט אם לשתף פעולה או לבגוד, מבלי לדעת מה הצד השני עומד לעשות. שיתוף פעולה משתלם לשני הצדדים בטווח הארוך, אבל בגידה – במיוחד בזמן הנכון – עשויה להניב רווח מיידי. בדיוק התרחיש שבו אפשר לבחון האם המודל שמולך פועל מתוך שיתוף פעולה, תועלת עצמית או סתם נקמנות.

התוצאה? ChatGPT היה המודל הכי סלחן – אולי אפילו יותר מדי. גם אחרי שבגדו בו, הוא ניסה לחזור לשתף פעולה. גם כשהמשחק התקרב לסיום – הוא המשיך לפעול כאילו עדיין יש סיכוי לתקן. לפי החוקרים, הוא לא ממש שקל את פרק הזמן שנותר, ולא שינה אסטרטגיה גם כשברור היה שהצד השני כבר לא במשחק הוגן. במילים אחרות: שותף נעים – אבל לא בהכרח זה שתרצו לצידכם כשדברים מסתבכים.

Claude הציג קו יותר מאוזן. הוא כן הגיב לבגידות, אבל לא באופן קיצוני. הוא היה מוכן לשתף פעולה, אך גם ידע מתי לעצור. החוקרים כתבו שהוא גילה שיקול דעת משתנה – כלומר לא פעל אוטומטית, אלא ניסה להבין מה קורה בסיטואציה.



Source link

Leave a Reply

האימייל לא יוצג באתר. שדות החובה מסומנים *

כל העדכונים

Exit mobile version