אתיקה של בינה מלאכותית

מתוך המכלול, האנציקלופדיה היהודית
קפיצה לניווט קפיצה לחיפוש

אתיקה של בינה מלאכותית עוסקת במחשבים שיכולים לעשות שיקולים מוסריים. זהו תחום מחקר בבינה מלאכותית. אדם יכול להעניק למחשב את הקוד האתי ישירות באמצעות כתיבת קוד, או בעקיפין על ידי קריאה, או שהמחשב יסיק את הקוד הזה מתוך רשימה של חוקים קיימים [1].

בעוד שהתקשורת עם בני אדם היא פשוטה וצפויה יחסית, התקשורת בין מערכות אוטונומיות לומדות יכולה להוביל לשגיאות גדולות. אלגוריתמים עשויים ללמוד זה מזה ולהפיק תובנות שאינן תמיד תואמות את כוונת המתכנתים המקורית.

הסוד האפל של הבינה המלאכותית, TheMarker, רותי לוי 10 בינואר 2019

לפי קווי היסוד של נציבות האיחוד האירופי לבינה מלאכותית אמינה יש שלושה מרכיבים שצריכים להתקיים לאורך כל מחזור החיים שלה[2]:

  1. עליה להיות חוקית, לציית לכל החוקים והתקנות הרלוונטיים;
  2. עליה להיות אתית, לדבוק בעקרונות ובערכים אתיים;
  3. עליה להיות איתנה, הן מבחינה טכנית והן מבחינה חברתית, שכן מערכות אינטליגנציה מלאכותית יכולות לגרום נזק בלי להתכוון לכך.

תְּחוּם הדַּעַת שעוסק באתיקה של הבינה המלאכותית, במיוחד כשמדובר בבינה מלאכותית חזקה שונה באופן מהותי מתחום הדעת שעוסק באתיקה של טכנולוגיות לא-קוגניטיביות. להלן ההבדלים בין שני התחומים האלה[3]:

  • אפילו אם המתכנתים עושים הכל נכון, ייתכן שלא ניתן יהיה לחזות את ההתנהגות הספציפית של מערכת הבינה המלאכותית, מלבד העובדה שההתנהגות הזאת תהיה בטיחותית;
  • בדיקת בטיחות המערכת הופכת לאתגר גדול ביותר, שכן עלינו לברר מה בדיוק המערכת מנסה לעשות ולא רק שהיא מתנהלת באופן בטיחותי בכל המצבים;
  • ההכרה האתית הופכת להיות נושא שהמהנדסים עוסקים בו.

אלגוריתמים והשפעתם על חיי היומיום

Postscript-viewer-blue.svg ערך מורחב – אלגוריתמים

אלגוריתמים הם שיטה לפתרון בעיות צעד אחר צעד. אלגוריתמים משמשים בעיבוד נתונים, עריכת חישובים ופעולות מתמטיות נוספות. אלגוריתמים משמשים גם כדי לתפעל נתונים בדרכים שונות, כגון הוספת נתון חדש, חיפוש פריט ומיון[4].

אלגוריתמים משמשים בתחומים רבים בחיי יומיום, למשל - אלגוריתם למיון כביסה[5]:

  1. הרם בגד מערימת הבגדים
  2. בחן את הצבע
  3. שורת תנאי: אם הבגד צבעוני הנח אותו בערימה מספר 1
  4. אם הבגד שחור הנח אותו בערימה מספר 2
  5. אם הבגד לבן הנח אותו בערימה מספר 3
  6. חזור על הפעולה כל עוד יש בגדים בערימה

אלגוריתמים מצויים בכל פעולות המחשבים והטלפונים. רובם מורכבים משרשרות מסובכות וארוכות של הוראות, עד כדי כך שקשה לעקוב אחר ההגיון שלהן ולא תמיד ניתן להסביר את פעולותיהן.

דוגמה[6]:

כאשר אנחנו קונים מוצר או מזמינים שירות באינטרנט מערכות מחליטות אם לאשר את הרכישה שלנו בהתבסס על אלגוריתמים לומדים. האלגוריתמים האלה לומדים אלו אוכלוסיות נוטות יותר לבצע הונאות אשראי ואלו לא. הם יוצרים הכללה של אוכלוסיות שנוטות יותר לבצע הונאות, ומונעים מהן לבצע עסקאות. כמו שאמר לי אנליסט הונאות בכיר באחת מחברות הקניות הגדולות בעולם: "היו מקרים שהמערכת החליטה לא למכור למדינה שלמה, לניגריה למשל". לכן, ייתכן שגם אזרח ניגרי תמים לא יוכל לקנות חולצה עם הדפס של להקת הפאנק האהובה עליו, כי "האלגוריתם לא מאשר".

תחום רשתות הנוירונים המלאכותיות תופס חלק גדל והולך של ה"בינה מלאכותית". מכיוון שרשתות אלו לא מממשות אלגוריתמים דטרמיניסטיים ולמעשה, אין "ידע הרמטי" לגבי האופן שבו הן מצליחות לבצע משימות מורכבות, לא תמיד ניתן להסביר איך הן הגיעו לתוצאה כזו ולא לתוצאה אחרת. תחום זה מהווה תחום מחקר מהותי ואולם לא ברור אם יהיה לו פתרון. ככל שהשימוש ברשתות הנוירונים המלאכותיות הופך להיות נפוץ יותר, התופעה ולפיה הן "מקדדות" לעצמן את העיוותים הקוגניטיביים-חברתיים הקיימים, הולכת ומחריפה. נושא זה במיוחד משמעותי בכל הקשור ללמידה מונחית כאשר "התנהגותה" של הרשת נקבעת לפי בסיס הנתונים ששימש לאימון שלה. כך למשל, אם הרשת אומנה לתת תחזית לגבי סיכוייו של סטודנט מסוים לסיים את התואר באוניברסיטה, על בסיס רשימת כל הסטודנטים בשני העשורים האחרונים באוניברסיטה מסוימת - במקרים בהם יש יותר סטודנטים ממין זכר, הרשת באופן אוטומטי, תיטה לתת תחזיות מוטות "לטובת" המין הגברי ו"תופעה" כזו אינה רצויה חברתית[דרושה הבהרה].

בינה מלאכותית שוחרת-טובת-האדם

יש בבינה המלאכותית תכונות חיוביות לרוב[7]:

  • פיתוח כלי תחבורה אוטונומיים שעתידים לייעל את התחבורה לסוגיה ולצמצם את תאונות הדרכים.
  • דמוקרטיזציה והחבבנות, כלומר הפצת מידע, נתונים וכוח מיחשוב לכל דורש, חינם ובאופן נגיש.
  • קידום המחקר בפיזיקה ובמתמטיקה.
  • שיפור השרות הרפואי והוזלתו.

פיי-פיי לי היא פרופסור למדעי המחשב באוניברסיטת סטנפורד וכיום מנהלת שותפה של המכון לבינה מלאכותית ממוקדת-אדם בסטנפורד. לדבריה המכון מתמקד בכיווני מחקר חדשניים[8]:

  • פיתוח לימודי בינה מלאכותית שניתנת להבנה (לפרשנות) בידי אדם (Explainability AI) - כלומר יצירת תוכנות שמסבירות את האלגוריתמים ומתאימות אותם לאופן החשיבה של בני אדם.
  • פיתוח שיעמיק לחקור לא רק נתונים אלא גם אינטואיציה, ידע, אינטליגנציה אנושית.
  • שילוב של דיסציפלינות שונות במחקר הבינה המלאכותית - פילוסופים, היסטוריונים, אנשי מדעי המדינה, כלכלנים, אנשי אתיקה, אנשי משפט, חוקרי מוח, פסיכולוגים וחוקרים בתחומים רבים נוספים - כדי להבין את ההשפעה שלה על חברת בני האדם מכל הבחינות.

בינה מלאכותית ברמת האדם היחיד

לדברי יובל נוח הררי[8] בינה מלאכותית יכולה לאפשר תקיפת-מוח (brain hacking), כאשר יותר ויותר החלטות בחיים שלנו ייעשו על ידי אלגוריתמים, שכן הם יכירו את האדם טוב יותר מההכרות שלו את עצמו. לדבריו, כדי למנוע זאת עליך להכיר את עצמך יותר טוב, כך שיהיה יותר קשה לרמות אותך באמצעות מכונות. הררי מציע לפתח מערכות שמעניקות הגנה לאנשים ולא לממשלות ולא לחברות מסחריות. כל אחת ואחד מאיתנו צריכים מכונה כזאת – בת לווייה - שתפקידה להכיר את הבעלים שלה באופן אישי ביותר ולהגן עליה או עליו.

הסכנה שבבינה המלאכותית מצד תעשיית המידע

יוחאי בנקלר מתאר[9] כיצד חברות המידע - גוגל, פייסבוק, אמזון, מיקרוסופט, אפל - מפתחות מוצרים של בינה מלאכותית, כשהאינטרס שלהן הוא השגת רווחים. אלגוריתמים בהכרח אינם תואמים את האינטרס הציבורי כאשר הם מיועדים אך ורק לייצר רווח לחברה המסחרית.

בתוך הקופסה השחורה של האלגוריתמים יכולה להתקיים אפליה בלתי נראית ובלתי ניתנת לתיאור. כיוון שהנתונים נצברו לאורך השנים ובשל העובדה שהם משקפים אי-שוויון חברתי, קיימת אפשרות סבירה שנתונים אלה ינציחו מצב של אי-צדק שלא תהיה דרך לפענח את מקורו. לדוגמה, מערכות שחוזות עבריינות חוזרת עלולות לשלב שיטור נוקשה במיוחד בקהילות של שחורים. דוגמה נוספת: מערכות שמדרגות הצלחה של מועמדים לתפקיד כלשהו עלולות להפלות על בסיס מגדר או גיל. תופעה זו מחריפה ככל שתפוצת רשתות הנוירונים המלאכותיות עולה, בכלל, ונושא הלמידה מונחית בפרט.

הסכנה שבבינה המלאכותית בתחום המדיני

יובל נוח הררי מזהיר מפני שני סוגים של דיסטופיות כתוצאה מפיתוחים בתחום הבינה המלאכותית[8]. אחת – מעקב קפיטליסטיאנ שבו אלגוריתמים יעשו עבורנו לא רק החלטות כגון מה לקנות או איפה לאכול אלא החלטות חשובות כגון איפה לעבוד, עם מי להתחתן ולמי להצביע. והשנייה - משטר טוטליטרי, שמבוסס על מערכת פיקוח שעוקבת ומדווחת אחרי כל אזרח כל הזמן. הררי, יחד עם 1,000 חוקרי בינה מלאכותית נוספים, בהם אילון מאסק וסטיב ווזניאק (ממייסדי אפל), חתם בחודש מרץ 2023 על מכתב הקורא להשהות את פיתוחי הבינה המלאכותית המתקדמים יותר ממודל השפה GPT-4, אשר שוחרר כשבועיים קודם לפרסום המכתב, למשך שישה חודשים. זאת, בשל דאגות הנוגעות לאובדן שליטה ביכולתה של הבינה המלאכותית, ולהיעדר הרגולציה בתחום זה.[10]

בתחום היחסים בין מדינות קיימת סכנה של האצת מרוץ החימוש, מאחר שיותר ויותר מדינות מגיעות להבנה שבינה מלאכותית היא האמצעי להשיג שליטה במאה ה-21 וכולן ממהרות לפתח אלגוריתמים מורכבים שיכולים להיות זדוניים.

דרכי הגנה מפני איומי הבינה המלאכותית

  1. נדרשת השקעה ציבורית מוגברת במחקר עצמאי בתחום האתיקה של הבינה המלאכותית[9].
  2. יש צורך בשיתוף פעולה בינלאומי, כדי להגביר את האמון בין ארצות ועמים[8].
  3. סטודנטים לתכנות צריכים ללמוד קורסים באתיקה[8].[11]
  4. יש לחשוף לציבור את הנתונים שנמצאים בידי החברות המסחריות[9].
  5. ארגונים הפועלים על מנת להבטיח כי מערכות של אינטליגנציה מלאכותית יתנהלו בהוגנות ויועילו לחברה חייבים להיות ממומנים על ידי הציבור, בכפוף לביקורת עמיתים ושקופים לחברה האזרחית[9].

רגולציה

עם עליית תפוצתה של הטכנולוגיה, החלו מספר גורמים בינלאומיים, ביניהם אונסק"ו, לקדם קווים מנחים לקביעת תקנות בינלאומיות לשימוש ראוי בבינה מלאכותית[12].

בשנת 2021 סין הייתה למדינה הראשונה בעולם שפרסמה תקנות אתיקה הנוגעות לשימוש בבינה מלאכותית[13], זאת כאשר השימוש של סין בבינה מלאכותית נחשב במערב לכזה שאינו תואם את ערכי החירות של הדמוקרטיות הליברליות[12], ופעילותה של סין בתחום זכויות האדם, כמו הפעלת מערכת אשראי חברתי, סותרות את המתווים הבינלאומיים לשימוש ראוי בבינה מלאכותית, מתווים עליהם חתומה גם סין עצמה[14].

על פי הפרסומים בסין, מטרתן של התקנות לאפשר לגולשים, בכל פעם שאמורה לפעול מולם מערכת של בינה מלאכותית, לבחור באופן אקטיבי האם להפעיל או לבטל אותה. כלומר, על ספק השירות להציע במקביל גם אפשרות שאינה מבוססת על בינה מלאכותית שתהייה נגישה לגולשים שיבחרו בכך. ההנחיות בסין נשענות על שישה עקרונות בסיס להפעלת AI: אמינות, שליטה, שיפור ההוויה לבני אדם, קידום צדק ובטיחות ושיפור המוסר[13]. עם זאת, נושא האתיקה בסין מורכב, מכיוון שבמקרים שונים גישתה של סין, שבאופן כללי אינה נוטה לכבד את זכותם לפרטיות של אזרחיה, סייעה להתפתחות תחום הבינה במלאכותית במדינה תוך גישה להיקפי מידע שאין בנמצא במדינות אחרות, דוגמת מסד נתונים רחב של צילומי וידאו עם טכנולוגיה של זיהוי תווי פנים[15].

ב 30.10.2022, משרד החדשנות, מדע וטכנולוגיה פרסם "מצפן" להתייחסות הציבור. המסמך מתייחס לאסדרה ואתיקה בנושא בינה מלאכותית. במסמך יש כמה וכמה פריצות דרך ובכללן ההחלטה שלא תהיה חקיקה ראשית רוחבית - אלא קריאה לרגולטורים השונים לאסדר את הנושא, כל אחד בתחום אחריותו. במסמך יש גם סקירה מקיפה של מסמכים מקבילים בעולם והפניות לחומרי קריאה חשובים בתחום[16]. המסמך, בין השאר, מתאר שישה עקרונות בסיסיים:

  • בינה מלאכותית תשמש לקידום צמיחה, פיתוח בר קיימא והמובילות הישראלית בתחום החדשנות - שימוש אחראי בבינה מלאכותית מהימנה הוא אמצעי לעודד צמיחה, פיתוח בר-קיימא, רווחה חברתית וקידום המובילות הישראלית בתחום החדשנות.
  • האדם במרכז: כיבוד זכויות יסוד ואינטרסים ציבוריים - פיתוח בינה מלאכותית, או שימוש בה, ייעשו תוך כיבוד שלטון החוק, זכויות יסוד ואינטרסים ציבורים ובפרט תוך שמירה על כבוד האדם ופרטיות.
  • שוויון ומניעת אפליה פסולה - בפיתוח ושימוש בבינה מלאכותית יובאו בחשבון הצורך בשוויון, גיוון, החשש להטיה במערכות בינה מלאכותית והסיכון לאפליה פסולה כנגד יחידים או קבוצות.
  • שקיפות והסברתיות - בפיתוח בינה מלאכותית ושימוש בה, יובאו בחשבון הצורך ליידע את מי שבא במגע עם בינה מלאכותית או מושפע מפעילותה והצורך במתן הסבר להחלטתה או לאופן שבו פעלה, בין היתר בשים לב למידת השפעתה, השלכותיה על מי שמושפע ממנה והאפשרויות הטכנולוגיות הזמינות.
  • אמינות, עמידות אבטחה ובטיחות - בפיתוח בינה מלאכותית ושימוש בה, יובא בחשבון הצורך בכך שמערכות בינה מלאכותית תהיינה אמינות, מאובטחות בטיחותיות לאורך כל מחזור חייהן, כך שבתנאי שימוש רגילים, שימוש צפוי או שימוש שגוי או תנאים מסוכנים אחרים - יפעלו כראוי ולא יהוו סיכון בטיחותי בלתי סביר. לשם כך יש לנקוט אמצעים סבירים בהתאם לתפיסות מקצועיות מקובלות לצמצם סיכוני בטיחות ואבטחת מידע בכל מחזור החיים של מערכות בינה מלאכותית.
  • אחריותיות - מפתחי בינה מלאכותית, מפעיליה או המשתמשים בה יגלו אחריות לתפקודה התקין, ולקיום העקרונות האחרים בפעילותם, בין היתר בשים לב לתפיסות ניהול סיכונים מקובלות ולאפשרויות הטכנולוגיות הזמינות.

בספרות

הספר מכונות כמוני מאת איאן מקיואן מספר על אנדרואיד בשם אדם, תפקודו, ויחסיו עם בני האדם. הספר מציג שיקולי מוסר שקשורים ליחסי אדם-מכונה.

לקריאה נוספת

  • שושנה זובוף: The Age of Surveillance Capitalism - The Fight for a Human Future at the New Frontier of Power, 2019
  • Cathy O'Neil, Weapons of Math Destruction How Big Data Increases Inequality and Threatens Democracy, 2016

קישורים חיצוניים

[17]

הערות שוליים

  1. ^ Artificial Intelligence בתוך Stanford Encyclopedia of Philosophy
  2. ^ Ethics guidelines for trustworthy AI בהוצאת European Commission
  3. ^ The Ethics of Artificial Intelligence מאת ניק בוסטרום ואליעזר יודקובסקי
  4. ^ Algorithm
  5. ^ הגר בוחבוט, מה זה אלגוריתם?, באתר ynet, 23 במארס 2018
  6. ^ הרובוט מול המתכנת: מי מוסרי יותר? בתוך הבלוג מידה טובה מאת: יאיר בן דוד
  7. ^ רועי צזנה, כוח מניע שלישי: הבינה המלאכותית, בתוך: השולטים בעתיד, ירושלים: כנרת, 2017
  8. ^ 8.0 8.1 8.2 8.3 8.4 YouTube full-color icon (2017).svg Fei-Fei Li & Yuval Noah Harari in Conversation - The Coming AI Upheaval, סרטון באתר יוטיוב
  9. ^ 9.0 9.1 9.2 9.3 Don’t let industry write the rules for AI
  10. ^ עידן בן טובים, אילון מאסק, סטיב ווזניאק ויובל נח הררי קוראים: עצרו את פיתוחי ה-AI, באתר גיקטיים, ‏2023-03-29
  11. ^ אתר למנויים בלבד רותי לוי, הסוד האפל של הבינה המלאכותית, באתר TheMarker‏, 10 בינואר 2019
  12. ^ 12.0 12.1 Joshua P. Meltzer and Cameron F. Kerry, Strengthening international cooperation on artificial intelligence, מכון ברוקינגס, ‏February 17, 2021
  13. ^ 13.0 13.1 רפאל קאהאן, סין מודיעה על חוקי אתיקה לשימוש בבינה מלאכותית - הראשונים מסוגם בעולם, באתר כלכליסט, 4 באוקטובר 2021
  14. ^ MELISSA HEIKKILÄ, China backs UN pledge to ban (its own) social scoring, פוליטיקו, ‏November 23, 2021
  15. ^ Daitian Li, Tony W. Tong, and Yangao Xiao, Is China Emerging as the Global Leader in AI?, Harvard Business Review
  16. ^ הפניה למסמך באתר הממשלה, המשרד לחדשנות, מדע וטכנולוגיה
  17. ^ מדיניות שרת החדשנות, המדע והטכנולוגיה - רגולציה ואתיקה לתחום הבינה המלאכותית להערות הציבור
Logo hamichlol 3.png
הערך באדיבות ויקיפדיה העברית, קרדיט,
רשימת התורמים
רישיון cc-by-sa 3.0