המכתב הפתוח על בינה מלאכותית (2015)
בינואר 2015, סטיבן הוקינג, אילון מאסק ועשרות מומחים לבינה מלאכותית נוספים[1] חתמו על מכתב פתוח בשם עדיפויות חוקרים לבינה מלאכותית גמישה ויעילה: מכתב פתוח (Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter) הקורא לחקור את ההשפעות החברתיות של בינה מלאכותית[2]. המכתב אישר כי החברה יכולה לקצור יתרונות פוטנציאליים גדולים מבינה מלאכותית, אך קרא למחקר קונקרטי כיצד למנוע "מכשולים" פוטנציאליים מסוימים: לבינה מלאכותית יש פוטנציאל לחסל מחלות ועוני, אך החוקרים לא חייבים ליצור משהו שאינו בטוח או בלתי נשלט. המכתב בן ארבעת הפסקאות, שכותרתו "סדרי עדיפויות למחקר למען בינה מלאכותית חזקה ומועילה: מכתב פתוח", מפרט סדרי עדיפויות מחקריים מפורטים במסמך נלווה בן שנים עשר עמודים[3].
רקע
עד שנת 2014, גם הפיזיקאי סטיבן הוקינג וגם היזם אילון מאסק הביעו בפומבי את הדעה שבינה מלאכותית על–אנושית יכולה לספק יתרונות עצומים, אך גם יכולה להביא את הקץ על המין האנושי אם תופעל בפזיזות. באותה תקופה, הוקינג ומאסק ישבו שניהם במועצה המדעית המייעצת של מכון עתיד החיים, ארגון הפועל "לצמצם סיכונים קיומיים העומדים בפני האנושות". המכון ניסח מכתב פתוח המופנה לקהילת המחקר הרחבה יותר של בינה מלאכותית[4], והפיץ אותו למשתתפי הכנס הראשון שלו בפוארטו ריקו במהלך סוף השבוע הראשון של 2015[5]. המכתב פורסם לציבור ב-12 בינואר[6].
מטרת המכתב
המכתב מדגיש הן את ההשפעות החיוביות והן את ההשפעות השליליות של בינה מלאכותית[7]. לדברי בלומברג ביזנס, פרופסור מקס טגמרק מ-MIT הפיץ את המכתב במטרה למצוא מכנה משותף בין חותמים הרואים בבינה מלאכותית סופר-אינטליגנטית סיכון קיומי משמעותי, לבין חותמים כמו פרופסור אורן עציוני, המאמינים שתחום הבינה המלאכותית "מוכתם" על ידי התמקדות חד-צדדית של התקשורת בסיכונים לכאורה. המכתב טוען כי:
הפוטנציאל הטמון בבינה מלאכותית הוא עצום, שכן כל מה שיש לציוויליזציה להציע הוא תוצר של אינטליגנציה אנושית; איננו יכולים לחזות מה נוכל להשיג כאשר אינטליגנציה זו תוגבר על ידי הכלים שבינה מלאכותית עשויה לספק, אך מיגור מחלות ועוני אינם בלתי נתפסים. בשל הפוטנציאל הגדול של בינה מלאכותית, חשוב לחקור כיצד לקצור את היתרונות שלה תוך הימנעות ממכשולים פוטנציאליים.[8]
אחד החותמים, פרופסור בארט סלמן מאוניברסיטת קורנל, אמר שהמטרה היא לגרום לחוקרי ומפתחי בינה מלאכותית לשים לב יותר לבטיחות בבינה מלאכותית. בנוסף, עבור קובעי מדיניות והציבור הרחב, המכתב נועד להיות אינפורמטיבי אך לא לעורר דאגה. חותמת נוספת, פרופסור פרנצ'סקה רוסי, הצהירה כי "אני חושבת שזה מאוד חשוב שכולם ידעו שחוקרי בינה מלאכותית חושבים ברצינות על החששות והסוגיות האתיות הללו"[9].
החששות שהועלו במכתב
החותמים שואלים כיצד מהנדסים יכולים ליצור מערכות בינה מלאכותית מועילות לחברה שיהיו גם חזקות? בני אדם צריכים להישאר בשליטה על בינה מלאכותית; מערכות הבינה המלאכותית שלנו חייבות "לעשות את מה שאנחנו רוצים שהן יעשו". המחקר הנדרש הוא רב-תחומי, מכלכלה ומשפטים ועד לענפים שונים של מדעי המחשב, כגון אבטחת תוכנה ואימות תוכנה. האתגרים שעולים מתחלקים לאימות ("האם בניתי את המערכת נכון?"), תוקף ("האם בניתי את המערכת הנכונה?"), אבטחה ובקרה ("אוקיי, בניתי את המערכת לא נכון, האם אני יכול לתקן אותה?")[10].
דאגות בטווח הקצר
חלק מהחששות לטווח הקרוב קשורים לכלי רכב אוטונומיים, מרחפנים עד מכוניות אוטונומיות. לדוגמה, מכונית אוטונומית עשויה, במקרה חירום, להידרש לבחור בין סיכון קטן לתאונה גדולה לבין סבירות גבוהה לתאונה קטנה.
חששות אחרים נוגעים לנשק אוטונומי קטלני: האם יש לאסור עליהם? אם כן, כיצד יש להגדיר במדויק "אוטונומיה"? אם לא, כיצד יש לחלק את האחריות על שימוש לרעה או תקלה?
סוגיות נוספות כוללות חששות בנוגע לפרטיות ככל שבינה מלאכותית הופכת ליותר ויותר מסוגלת לפרש מערכי נתונים גדולים של מעקב, וכיצד לנהל בצורה הטובה ביותר את ההשפעה הכלכלית של מקומות עבודה שיאבדו עקב בינה מלאכותית.
דאגות בטווח הארוך
המסמך מסתיים בהדהוד חששותיו של מנהל המחקר של מיקרוסופט, אריק הורביץ, כי:
”אנו עלולים יום אחד לאבד שליטה על מערכות בינה מלאכותית באמצעות עלייתן של אינטליגנציות-על שאינן פועלות בהתאם לרצונות אנושיים – ושמערכות כה חזקות יאיימו על האנושות. האם תוצאות דיסטופיות כאלה אפשריות? אם כן, כיצד מצבים אלו עשויים להתעורר?... אילו סוגי השקעות במחקר יש לבצע כדי להבין טוב יותר ולטפל באפשרות של עליית אינטליגנציה-על מסוכנת או התרחשות של "פיצוץ אינטליגנציה"?”
כלים קיימים שנועדו לרתום בינה מלאכותית, כגון למידה באמצעות חיזוקים ופונקציות תועלת פשוטות, אינם מספיקים כדי לפתור זאת; לכן נדרש מחקר נוסף כדי למצוא ולתקף פתרון חזק ל"בעיית השליטה".
חותמים
בין החותמים נמנים הפיזיקאי סטיבן הוקינג, היזם אילון מאסק, היזמים שמאחורי DeepMind ו-Vicarious, מנהל המחקר של גוגל פיטר נורוויג, פרופסור סטיוארט ראסל מאוניברסיטת ברקלי[11] ומומחי בינה מלאכותית אחרים, יצרני רובוטים, מתכנתים ואתיקנים[12]. מספר החותמים המקורי היה למעלה מ-150 איש[13], ביניהם אנשי אקדמיה מקיימברידג', אוקספורד, סטנפורד, הרווארד ו-MIT[14].
קישורים חיצוניים
הערות שוליים
- ^ Sparkes, Matthew (13 בינואר 2015). "Top scientists call for caution over artificial intelligence". The Telegraph (UK). נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ "FLI - Future of Life Institute AI Open Letter". 2015-11-02. אורכב מ-המקור ב-2015-11-02. נבדק ב-2024-07-09.
- ^ Russell, Stuart; Dewey, Daniel; Tegmar, Max (2015-01-23). "Research priorities for robust and beneficial artificial intelligence" (PDF). ארכיון (PDF) מ-2015-12-01.
- ^ Chung, Emily (13 בינואר 2015). "AI must turn focus to safety, Stephen Hawking and other researchers say". Canadian Broadcasting Corporation. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ McMillan, Robert (16 בינואר 2015). "AI Has Arrived, and That Really Worries the World's Brightest Minds". Wired. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ Dina Bass; Jack Clark (4 בפברואר 2015). "Is Elon Musk Right About AI? Researchers Don't Think So". Bloomberg Business. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ Bradshaw, Tim (12 בינואר 2015). "Scientists and investors warn on AI". The Financial Times. נבדק ב-24 באפריל 2015.
Rather than fear-mongering, the letter is careful to highlight both the positive and negative effects of artificial intelligence.
{{cite news}}
: (עזרה) - ^ "Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter". Future of Life Institute. נבדק ב-24 באפריל 2015.
{{cite web}}
: (עזרה) - ^ "Big science names sign open letter detailing AI danger". New Scientist. 14 בינואר 2015. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ "Research priorities for robust and beneficial artificial intelligence" (PDF). Future of Life Institute. 23 בינואר 2015. נבדק ב-24 באפריל 2015.
{{cite web}}
: (עזרה) - ^ Wolchover, Natalie (21 באפריל 2015). "Concerns of an Artificial Intelligence Pioneer". Quanta magazine. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ "Experts pledge to rein in AI research". BBC News. 12 בינואר 2015. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ Hern, Alex (12 בינואר 2015). "Experts including Elon Musk call for research to avoid AI 'pitfalls'". The Guardian. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה) - ^ Griffin, Andrew (12 בינואר 2015). "Stephen Hawking, Elon Musk and others call for research to avoid dangers of artificial intelligence". The Independent. ארכיון מ-2022-05-24. נבדק ב-24 באפריל 2015.
{{cite news}}
: (עזרה)
המכתב הפתוח על בינה מלאכותית (2015)40011604