תורת האינפורמציה

מתוך המכלול, האנציקלופדיה היהודית
קפיצה לניווט קפיצה לחיפוש

עיינו גם בפורטל

פורטל המתמטיקה הוא שער לכל הנושאים הקשורים במתמטיקה. ניתן למצוא בו קישורים אל תחומי המשנה של ענף המתמטיקה, מושגי יסוד בתחום, היסטוריה של המתמטיקה, מתמטיקאים חשובים ועוד.

תורת האינפורמציה (גם תורת המידע) היא ענף של מתמטיקה שימושית בעל יישומים רבים במדע ובפרט במדעי המחשב, הנדסת חשמל. התחום עוסק במדידת מידע וביכולת להעביר מידע בין מקור ליעד כאשר ביניהם קיים ערוץ תקשורת. התחום מבוסס על תורת ההסתברות, ועוסק בעיקר בבעיות תאורטיות, כגון חסמים על קצב המידע שניתן להעביר ללא שגיאות בערוץ נתון. מושגים וכלים שמוגדרים בתורת האינפורמציה איפשרו את פיתוחן של טכנולוגיות תקשורת מודרניות, ובמיוחד תקשורת ספרתית, ויישומים כגון לווייני תקשורת, מערכות אחסון נתונים, תקשורת סלולרית ותקשורת נתונים בקצבים גבוהים.

שיטות וטכניקות שמקורן בתורת האינפורמציה נמצאות כיום בשימוש בתחומי ידע מגוונים, בהם הסקה סטטיסטית, אינטליגנציה מלאכותית, קריפטוגרפיה, ביולוגיה, מדעי המוח ובלשנות. רעיונות ומודלים שמקורם בתחום נכנסו לשימוש גם בתחומי מדעי החברה כגון חינוך, פסיכולוגיה קוגניטיבית ותקשורת המונים.

היסטוריה

אבי תורת האינפורמציה הוא המדען האמריקאי קלוד אלווד שאנון. ב-1948 פרסם שאנון את המאמר המכונן "A Mathematical Theory of Communication"[1], אשר יצר לראשונה את הבסיס המתמטי עבור מערכות תקשורת. במאמר זה הגדיר שנון את הסיבית כיחידת מידע ואת האנטרופיה של מקור מידע, שניתן לתארה ככמות הביטים המינימלית הנדרשת כדי לקודד מסר שיוצר מקור המידע, וכן סיפק הגדרה מתמטית כללית של ערוץ תקשורת כקשר סטטיסטי בין הודעות כאשר הן נשלחות מהמקור לאותן הודעות כאשר הן מגיעות אל היעד. שאנון הראה לראשונה כי בעזרת פעולות קידוד מתאימות על ההודעות, ניתן להגיע לתקשורת אמינה (קצב שגיאות קטן כרצוננו), כל עוד קצב העברת המידע (הנמדד בסיביות לשנייה) קטן מהאינפורמציה ההדדית בין המקור והיעד שאותה משרה הערוץ, גודל המוגדר כקיבולת הערוץ (Channel capacity). לעומת זאת, העברת מידע בקצב גבוה מקיבולת הערוץ אינה אפשרית - קצב השגיאות יהיה גבוה עד כדי אובדן קשר סטטיסטי בין ההודעות הנשלחות והמתקבלות. תוצאה זו הייתה מפתיעה ולא שוערה לפני כן, אך היא הוכחה בפועל במערכות תקשורת רבות מספור בעקבות עבודתו של שאנון.

מאמרו של שאנון היה לאחד המאמרים המשפיעים ביותר על המדע במאה ה-20, ונכון ל-2014 הוא מצוטט מעל 60 אלף פעמים במאמרים אקדמאים שונים[2]. בעקבותיו פותחו שיטות לחישוב קיבול של ערוצי תקשורת תאורטיים ומעשיים שונים, וחסמים על קצבי שגיאות בשיטות קידוד ופענוח שונות.

תיאור מתמטי של בסיס התאוריה

מידע הוא מושג מופשט, ולכן כדי שתוכל להתבסס תאוריה המתארת את צורות העברתו יש צורך בהגדרתו מחדש בצורה אנליטית יותר.

אינפורמציה עצמית

ככל שמושג מסוים הוא יותר נדיר כך תרומתו לידע הקיים במערכת מסוימת הוא רב יותר. לדוגמה אם מגיע לידי חוקר סופה של שיחה בין שני אנשים המתאר סיום מאוד נפוץ כמו "נתראה בקרוב", אין סיום זה מכיל המון מידע. אך אם סיום השיחה הוא סיום נדיר יותר כמו "לך ואל תחזור" סיום זה יכיל מידע רב יותר.

כפועל יוצא מכך שאנון הגדיר את המידע המוכל בהודעה מסוימת כ- כאשר . היא ההסתברות לבחירת הודעה מכל ההודעות האפשריות המגדירות את מרחב ההודעות . הגדרה זו משתמשת בתכונת הלוגריתם אשר מגדילה את ערכם של ערכים קטנים מאוד, ואילו משאיפה לאפס ערכים המתקרבים לאחד ובכך מעניקה משמעות גבוהה להודעות בעלות הסתברות נמוכה להתקבל. למידע המוכל בהודעה נהוג לקרוא בתורת האינפורמציה אינפורמציה עצמית (באנגלית: Self-information) של הודעה .

אנטרופיה

ערך מורחב – אנטרופיה (סטטיסטיקה)

כאשר באים לבחון מאפיינים של מרחבי הודעות, דהיינו הקבוצה המגדירה את כל ההודעות היכולות להיבחר, יש צורך להגדיר מדדים המתארים תכונות כוללות של המרחב. אחת מהתכונות הללו היא רמת אי הסדר של בחירת ההודעות. כלומר המידה בה מרחב הודעות הוא בלתי צפוי בהקשר של בחירת הודעה ספציפית ממנו. ככל שקשה יותר לנבא איזה הודעה תבחר מן המרחב, נאמר כי האנטרופיה של המרחב גדולה יותר. למידה זו נהוג לקרוא האנטרופיה של מרחב הודעות בדיד . מבחינה כמותית האנטרופיה של מרחב הודעות מוגדרת כממוצע האינפורמציה העצמית של כל ההודעות השיכות למרחב. בכתיב מתמטי נאמר:

כאשר המייצג את תוחלת המרחב. לדוגמה כאשר מרחב ההודעות מכיל שתי הודעות אחד בהסתברות ואפס אחרת. נחשב את האנטרופיה לפי הגדרה:

במקרה בו p שווה ל: נקבל:

ניתן להראות בטכניקות מתחום חשבון וריאציות כי כאשר ההסתברות לקבלת הודעה שווה בין כל ההודעות האנטרופיה היא מקסימלית ושווה ל- כאשר מייצג את מספר האיברים הקיים במרחב , תכונה הנקראת עוצמתו של . ניתן לקבל אינטואיציה לתופעה זו באמצעות ההגדרה האיכותית של האנטרופיה. כאשר כל ההודעות מתקבלות בהסתברות שווה, אזי אין כל דרך להעדיף בחירת הודעה אחת על אחרת, ולכן יכולת הניבוי היא מינימלית, כלומר המרחב הוא הכי בלתי צפוי שיכל להיות. בזכות העובדה שאנטרופיה מקסימלית מתקבלת כאשר ההתפלגות אחידה, ניתן לראות באנטרופיה מדד לעד כמה ההתפלגות הנמדדת שונה מהתפלגות זו.

אנטרופיה משותפת

האנטרופיה המשותפת של שני משתנים מקריים מוגדרת כאנטרופיה של ההתפלגות המשותפת של :

כאשר המשתנים הם בלתי תלויים האנטרופיה המשותפת היא פשוט סכום האנטרופיות של שניהם.

אנטרופיה מותנית

ערך מורחב – אנטרופיה מותנית

אנטרופיה מותנית היא האנטרופיה שנגררת בעקבות ידיעה של אחד משני משתנים בעלי התפלגות משותפת. כאשר ידוע ערך ספציפי של שהוא קבוע ועליו מחשבים את האנטרופיה של אז ערכה מוגדר על ידי:

ומכאן ניתן באמצעות כמה הצבות אלגבריות פשוטות לגזור את כלל השרשרת לאנטרופיה:

ובהכללה ל- משתנים בלתי תלויים:

ומכאן שכאשר המשתנים הם בלתי תלויים:

אינפורמציה הדדית

ערך מורחב – אינפורמציה הדדית

אחד הכלים האנליטים החשובים ביותר בתורת המידע היא בדיקה כמות של עד כמה אפשר להסיק מידע מסוים ממשתנה מקרי אחד על משתנה מקרי אחר. האינפורמציה ההדדית מבטאת את הקטנת אי הודאות של משתנה מקרי בזכות ידעתו של . מבחינה כמותית האינפורמציה ההדדית מתוארת על ידי המשוואה הבאה:

זהות חשובה בתחום היא ש:

תכונה נוספת היא קיום סימטריה בשיתוף המידע בין המשתנים ולכן מתקיים גם:

יישום הכלים בניתוח התנהגות תא עצב

תאי עצב יורים פוטנציאל פעולה בעקבות גירויים שונים, דפוס הירי משתנה בהתאם לגירוי המוצג לפני נבדק. זאת לאחר שבתהליך פסיכופיסי הותמר המידע מן הסביבה לאותות חשמליים אשר בתורם מגיעים לתא העצב ומשפעלים אותו. על מנת לנתח את התנהגות תא העצב נגדיר משתנה מקרי כמספר פוטנציאלי הפעולה, את כסוג הגירוי. לדוגמה אם נמדדה בניסוי התפלגות המשותפת (joint distribution) עם ההתפלגויות השוליות של הבאה:

סך הכל הסתברות ההופעה עבור גירוי

2

הסתברות ההופעה עבור גירוי

1

מספר פוטנציאלי הפעולה
0.3 0.3 0 0
0.5 0.15 0.35 1
0.15 0.05 0.10 2
0.04 0 0.04 3
0.01 0 0.01 4
1 0.5 0.5 סך הכל

האנטרופיה של המשתנה נתונה על ידי הביטוי:

על מנת לחשב כמה ידיעת סוג הגירוי המוצג מפחית את אי הוודאות של התפלגות פוטנציאלי הפעולה נשתמש בנוסחה לאנטרופיה מתנית:

נשתמש בפירוק האינפורמציה ההדדית לאנטרופיות המשתנים ונקבל:

מדידה כמותית זו של כמות המידע שניתנת על ידי ידיעת הגירוי המוצג יכול לתת אמצעי השוואה בין גירויים שונים וכמות המידע שאפשר להסיק מהם.

יישומים

היישום המעשי של תורתו של שאנון היה לתחום עיקרי בהנדסת מערכות תקשורת שבמסגרתה פותחו שיטות לאפנון, קידוד, דחיסת נתונים, קליטה ותיקון שגיאות שאיפשרו תקשורת אמינה על פני ערוצים מעשיים, החל מקווי טלפון וטלגרף, דרך אפיקי רדיו ועד סיבים אופטיים ומדיה מגנטית ואופטית.

התפתחות טכנולוגיות התקשורת אפשרה העברת מידע מסוגים שונים ומגוונים, כגון מלל, דיבור, מוזיקה, וידאו, וצירופים שלהם (כפי שניתן לעשות כיום במערכות דואר אלקטרוני, מסרים מיידיים ושירותי Web). תורת האינפורמציה והטכנולוגיות שנבנו על בסיסה אינן עוסקות במשמעות של המידע[3]. משמעות מוקנית להודעות העוברות בין אנשים או מכונות על ידי תהליכי חשיבה, העושים שימוש ביכולת הבנה והתנסחות ובמאגרי ידע ושליפת פרטים מתוכם. נושאים אלה הם בתחומי הדיסציפלינות של פסיכולוגיה קוגניטיבית ואינטליגנציה מלאכותית, בהם למושג "אינפורמציה" יש משמעויות אחרות.


ראו גם

לקריאה נוספת

  • Mcdonnell, M. D., Ikeda, S., & Manton, J. H. (2011). An introductory review of information theory in the context of computational neuroscience. Biological Cybernetics, 105(1), 55-70.
  • David J.C. MacKay, Information Theory, Inference, and Learning Algorithms. Cambridge University Press 2003.

קישורים חיצוניים

הערות שוליים

  1. ^ C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. ^ על פי Google Scholar
  3. ^ Denning, P. J., & Bell, T. (2012). The Information Paradox. American Scientist, 100(6), 470-477.


הערך באדיבות ויקיפדיה העברית, קרדיט,
רשימת התורמים
רישיון cc-by-sa 3.0

32654177תורת האינפורמציה