שלום,
נראה שכבר הכרתם את אאוריקה. בטח כבר גיליתם כאן דברים מדהימים, אולי כבר שאלתם שאלות וקיבלתם תשובות טובות.
נשמח לראות משהו מכם בספר האורחים שלנו: איזו מילה טובה, חוות דעת, עצה חכמה לשיפור או כל מה שיש לכם לספר לנו על אאוריקה, כפי שאתם חווים אותה.
»
«
מהי דילמת הטרולי ומה הקשר ל-AI?
דמיינו לעצמכם שאתם עומדים ליד מסילת רכבת. קרון (טרולי) מתדרדר במורד המסילה לעבר 5 פועלים שעובדים על הפסים ואינם מודעים לסכנה. לידכם מנוף שיכול להסיט את הקרון למסילה צדדית, אבל שם נמצא פועל אחד. האם תמשכו במנוף ותהרגו אדם אחד כדי להציל 5 אחרים?
מדובר בדילמת הטרולי (Trolley Problem), הידועה גם בשמות "בעיית הטרולי" או "בעיית הקרונית". זהו ניסוי מחשבתי שפיתחה הפילוסופית פיליפה פוט (Philippa Foot) בשנת 1967. פוט ניסתה לבחון את ההבדל בין פגיעה ישירה לבין פגיעה עקיפה.
מאוחר יותר, ב-1985, הפילוסופית ג'ודית ג'רוויס תומסון (Judith Jarvis Thomson) הרחיבה את הדילמה בגרסה קיצונית יותר, שבה במקום למשוך מנוף, אתם צריכים לדחוף אדם כבד מגשר כדי לעצור את הקרון. רוב האנשים מוכנים למשוך את המנוף, אבל מסרבים לדחוף את האדם, למרות שהתוצאה המתמטית זהה.
הדילמה עברה מהפילוסופיה לעולם המעשי עם התפתחות מכוניות אוטונומיות וטכנולוגיות בינה מלאכותית. במצבי חירום נדרש רכב אוטונומי לקבל החלטות בשברירי שנייה. וכאן נשאלת השאלה: אם בלימה תגרום לפגיעה ברוכבים, אבל התעלמות תפגע בהולכי רגל, מה צריך הרכב לעשות?
ב-2016 ערכו חוקרים מ-MIT את פרויקט Moral Machine, ניסוי מקוון שבו מיליוני אנשים מרחבי העולם התמודדו עם גרסאות שונות של דילמת הטרולי. התוצאות חשפו הבדלים תרבותיים משמעותיים. מדינות מערביות העדיפו להציל צעירים על פני קשישים, בעוד תרבויות מזרחיות הדגישו כבוד לזקנים דווקא.
החוקרים הגיעו למסקנה שאין פתרון אוניברסלי, מה שמציב אתגר אמיתי למהנדסי AI.
הבעיה מעמיקה אף יותר כשמבינים שבינה מלאכותית לא מתמודדת רק עם סיטואציות חירום. מערכות AI מחליטות היום מי מקבל הלוואה, מי יתקבל לעבודה, מי עלול לבצע פשע. כל החלטה כזו משקפת ערכים מוסריים שתוכנתו בה על ידי מפתחים אנושיים. הפילוסוף מייקל סנדל (Michael Sandel) מאוניברסיטת הרווארד הפך את דילמת הטרולי לאחד מהשיעורים המפורסמים ביותר שלו, בו הוא מדגים שאין תשובה נכונה אחת.
המעניין הוא שבניגוד לבני אדם, שמגיבים באופן אינטואיטיווי למצבי חירום, מכונות מבצעות חישובים מתמטיים קרים. היום, כשבינה מלאכותית חודרת לרפואה, משפט, חינוך וביטחון, דילמת הטרולי הפכה מתרגיל אקדמי לשאלה דחופה על זהות הערכים המוסריים של המכונות שלנו.
אז לפי אילו ערכים מתוכנתות המכונות לפעול?
אגב, גם אם זה לא נכלל בשלושת חוקי הרובוטיקה המקוריים של אסימוב, הוסיף הסופר המזוהה עם הרובוטיקה, עם הזמן, את "חוק ה-0", שיבוא לפני שלושת החוקים. חוק זה קבע שרובוט יצטרך להגן על האנושות, גם אם המחיר הוא פגיעה באדם בודד או בעצמו. בכך העמיד גם הוא את שלום האנושות מעל לשלומם של רובוט או אדם בודדים כלשהם.
הנה דילמת הקרונית (עברית):
https://youtu.be/6jhOI779rSk
ההחלטות המוסריות הללו עומדות גם מול המכוניות האוטונומיות ממש כנו שנהגים צריכים לקבל (עברית):
https://youtu.be/NJcsoA_QL-s
תיאור דילמת הקרונית בקיצור:
https://youtu.be/bOpf6KcWYyw
כאן בעיית הקרונית מתוארת היטב (מתורגם):
https://youtu.be/yg16u_bzjPE
וניסיון של ChatGpt לפתור את בעיית הטרולי:
https://youtu.be/xcsNFSmmNEs?long=yes
דילמת הקרונית

דמיינו לעצמכם שאתם עומדים ליד מסילת רכבת. קרון (טרולי) מתדרדר במורד המסילה לעבר 5 פועלים שעובדים על הפסים ואינם מודעים לסכנה. לידכם מנוף שיכול להסיט את הקרון למסילה צדדית, אבל שם נמצא פועל אחד. האם תמשכו במנוף ותהרגו אדם אחד כדי להציל 5 אחרים?
מדובר בדילמת הטרולי (Trolley Problem), הידועה גם בשמות "בעיית הטרולי" או "בעיית הקרונית". זהו ניסוי מחשבתי שפיתחה הפילוסופית פיליפה פוט (Philippa Foot) בשנת 1967. פוט ניסתה לבחון את ההבדל בין פגיעה ישירה לבין פגיעה עקיפה.
מאוחר יותר, ב-1985, הפילוסופית ג'ודית ג'רוויס תומסון (Judith Jarvis Thomson) הרחיבה את הדילמה בגרסה קיצונית יותר, שבה במקום למשוך מנוף, אתם צריכים לדחוף אדם כבד מגשר כדי לעצור את הקרון. רוב האנשים מוכנים למשוך את המנוף, אבל מסרבים לדחוף את האדם, למרות שהתוצאה המתמטית זהה.
הדילמה עברה מהפילוסופיה לעולם המעשי עם התפתחות מכוניות אוטונומיות וטכנולוגיות בינה מלאכותית. במצבי חירום נדרש רכב אוטונומי לקבל החלטות בשברירי שנייה. וכאן נשאלת השאלה: אם בלימה תגרום לפגיעה ברוכבים, אבל התעלמות תפגע בהולכי רגל, מה צריך הרכב לעשות?
ב-2016 ערכו חוקרים מ-MIT את פרויקט Moral Machine, ניסוי מקוון שבו מיליוני אנשים מרחבי העולם התמודדו עם גרסאות שונות של דילמת הטרולי. התוצאות חשפו הבדלים תרבותיים משמעותיים. מדינות מערביות העדיפו להציל צעירים על פני קשישים, בעוד תרבויות מזרחיות הדגישו כבוד לזקנים דווקא.
החוקרים הגיעו למסקנה שאין פתרון אוניברסלי, מה שמציב אתגר אמיתי למהנדסי AI.
הבעיה מעמיקה אף יותר כשמבינים שבינה מלאכותית לא מתמודדת רק עם סיטואציות חירום. מערכות AI מחליטות היום מי מקבל הלוואה, מי יתקבל לעבודה, מי עלול לבצע פשע. כל החלטה כזו משקפת ערכים מוסריים שתוכנתו בה על ידי מפתחים אנושיים. הפילוסוף מייקל סנדל (Michael Sandel) מאוניברסיטת הרווארד הפך את דילמת הטרולי לאחד מהשיעורים המפורסמים ביותר שלו, בו הוא מדגים שאין תשובה נכונה אחת.
המעניין הוא שבניגוד לבני אדם, שמגיבים באופן אינטואיטיווי למצבי חירום, מכונות מבצעות חישובים מתמטיים קרים. היום, כשבינה מלאכותית חודרת לרפואה, משפט, חינוך וביטחון, דילמת הטרולי הפכה מתרגיל אקדמי לשאלה דחופה על זהות הערכים המוסריים של המכונות שלנו.
אז לפי אילו ערכים מתוכנתות המכונות לפעול?
אגב, גם אם זה לא נכלל בשלושת חוקי הרובוטיקה המקוריים של אסימוב, הוסיף הסופר המזוהה עם הרובוטיקה, עם הזמן, את "חוק ה-0", שיבוא לפני שלושת החוקים. חוק זה קבע שרובוט יצטרך להגן על האנושות, גם אם המחיר הוא פגיעה באדם בודד או בעצמו. בכך העמיד גם הוא את שלום האנושות מעל לשלומם של רובוט או אדם בודדים כלשהם.
הנה דילמת הקרונית (עברית):
https://youtu.be/6jhOI779rSk
ההחלטות המוסריות הללו עומדות גם מול המכוניות האוטונומיות ממש כנו שנהגים צריכים לקבל (עברית):
https://youtu.be/NJcsoA_QL-s
תיאור דילמת הקרונית בקיצור:
https://youtu.be/bOpf6KcWYyw
כאן בעיית הקרונית מתוארת היטב (מתורגם):
https://youtu.be/yg16u_bzjPE
וניסיון של ChatGpt לפתור את בעיית הטרולי:
https://youtu.be/xcsNFSmmNEs?long=yes