האשליה הכי מסוכנת
האשליה הכי מסוכנת
כשסוכן החדשות של פרפלקסיטי בווטסאפ נראה נייטרלי על פני השטח
שרון גונן
למה זה עניין אותי?
פרפלקסיטי השיקה לאחרונה שירות חדשות יומי דרך וואטסאפ. אפשרות להירשם ולקבל עדכונים יומיים בדחיפה לנייד.
החלטתי לבדוק לא רק על מה הם מדווחים, אלא איך זה נאמר ונארז, ובעיקר, איך זה מעצב את התפיסה שלנו על המציאות.
איך בדקתי את זה בפועל
לקחתי דוגמה קונקרטית - הודעת סיכום חדשות באנגלית שקיבלתי על אירוע חלוקת סיוע הומניטרי ברפיח (קראו פה) ניתחתי שלושה ממדים:
1. בחירות עריכה - סדר הצגת המידע, בחירת מילים ומסגור הנרטיב.
2. שקיפות מקורות - מה נכלל במסר ומה הושמט בכוונה.
3. עיצוב התפיסה - כיצד השימוש באלמנטים חזותיים שנבחרו, משפיעים על התפיסה.
מתחת לשכבת הנייטרליות - מה באמת מצאתי
התוכן היה עטוף בעיצוב נקי ומקצועי. השפה נראתה נייטרלית לחלוטין. אבל כשחפרתי מתחת לפני השטח, התגלתה תמונה אחרת לגמרי.
1. הטיה בסדר הצגת העובדות
הדעה מצד החמאס הוצגה תחילה כ"טענה", בעוד התגובה הישראלית הוצגה כ"הכחשה"- הבדל דק בשפה שיוצר היררכיה של אמינות.
2. הקומיקס המטעה
לתוכן הכתוב צורף איור שלכאורה "מסביר" את המצב, באופן ויזואלי:
תא ראשון - חייל ישראלי מכוון נשק על פלסטיני המקבל סיוע
תא שני- פוליטיקאים ישראליים מחייכים ומקבלים הסכם הפסקת אש
תא שלישי - אנשי חמאס דוחים את ההסכם
תא רביעי- גמל כבול בשרשרת ברזל עם משקולת "גישה לסיוע" וכותרת: "עדיין דאגה מרכזית"
הקומיקס יצר נרטיב חד־צדדי ברור: ישראל כתוקפת, חמאס כמסרבת לשלום, והסיוע ההומניטרי כמוגבל על ידי ישראל. הכל בעיצוב "נעים" ו"מסביר".
3. השמטות משמעותיות
הדיווח לא כלל:
- הקשר ביטחוני של חלוקת סיוע באזור סכסוך, לאחר טבח 7 באוקטובר וישראלים המוחזקים בני ערובה בידי חמאס
- אתגרים לוגיסטיים בהעברת סיוע לעזה
- תפקיד חמאס בפיקוח על חלוקת הסיוע
- סיבות אפשריות לירי, שאינן קשורות לישראל
אלה לא פרטים שוליים. אלה הפרטים שמשנים את כל הסיפור.
תובנות מרכזיות
בינה מלאכותית לא פתרה את בעיית ההטיה במדיה. היא הסתירה אותה מאחורי ממשק משכנע וגרפיקה לחיזוק "ההסברה".
כשמידע מוצג בעיצוב נקי, בקומיקס חמוד ובשפה "אובייקטיבית", אנחנו מפסיקים להיות ביקורתיים. הקומיקס הופך נושאים מורכבים לפשוטים, ויוצר רושם של בהירות כשמטרתו בפועל היא לעצב דעה באופן מוטה.
המסקנה המדאיגה
המעבר לצריכת חדשות מבוססות בינה מלאכותית, מעביר את ההטיה לשדה שקשה יותר לזהות ולבקר, בשל הנטייה שלנו לסמוך באופן עיוור על התוצאות.
כשעיתונאי כותב ידיעה, או כשאנחנו נכנסים לגוף חדשות מסוים, אנחנו יודעים (או לפחות מניחים) שיש להם נקודת מבט מסוימת. אבל כשמודלי בינה מלאכותית מסכמים לנו את החדשות, אנחנו מתייחסים לתוכן כאובייקטיבי.
הבינה המלאכותית לא "צועקת" את דעותיה. היא לא מדברת. היא מרמזת. ומי שמרמז, יודע בדיוק למה. היא פשוט "מסכמת עובדות". אבל מי החליט איזה עובדות? מי קבע את סדר ההצגה? מי בחר את התמונות והקומיקס?
מה עושים? מסקנות אופרטיביות
הטכנולוגיה יכולה לעזור לנו לעבד מידע מהר יותר, אבל לא לחשוב בשבילנו. שני כללים שניתן ליישם:
1. לבדוק לפחות מקור אמין נוסף אחד, לנושאים שהם בעלי חשיבות עבורנו.
2. תשאלו את עצמכם מי החליט מה חשוב לדעת היום ואיך זה מוצג? לא לשכוח שבינה מלאכותית זה כלי מדהים, אבל לא מחליף חשיבה ביקורתית אנושית.
אנחנו לא נלחמים בפייק ניוז. אנחנו נאבקים בתחושת ודאות מזויפת.
השורה התחתונה
הטכנולוגיה לא פותרת את בעיית ההטיה, היא פשוט מסתירה אותה טוב יותר.