זה מאוחר מדי להפסיק את הטכנולוגיה העמוקת מזויפת - אז כולנו צריכים להסתגל

זה מאוחר מדי להפסיק את הטכנולוגיה העמוקת מזויפת - אז כולנו צריכים להסתגל

לראות זה לא להאמין

מאדי מאיירס מנהל את מדור המשחקים של Polygon מאז 2020 כסגן עורך. היא עבדה בעיתונאות משחקים מאז 2007, ב-Kotaku, The Mary Sue ו-Boston Phoenix.

עוד בשנת 1996, בגיל 10, שיחקתי במשחק מחשב בבית של חבר בשםSpycraft: The Great Game. במשחק אתה משחק כפעיל CIA החוקר מזימת התנקשות; כדי להטעות חשוד במהלך חקירה, יש לך אפשרות לעשות צילום. התהליך הצחיק את דעתי בת ה-10 - עד כדי כך שזכרתי כמה עוצמתי המיני-משחק הזה הרגיש, כל השנים האלה. למרות שהוא היה מטושטש ומפוקסל, עורך התמונות שהופיע בוריגולהיה קצת כמו מה ש-Adobe Photoshop יהפוך יום אחד. ב-1996, זה הרגיש כמו חומר של ריגול ותחבולות היי-טק. בשנת 2023, זה ארצי לחלוטין. זה לא קשה או יקר לשנות תמונה - כבר לא. כל אחד יכול לעשות את זה, וכתוצאה מכך, כולנו הכרנו שאנחנו לא יכולים לסמוך על שום תמונה שאנו רואים.

טכנולוגיית Deepfake כבר הוכיחה שאנחנו גם לא יכולים לסמוך על הקלטות וידאו או אודיו. והשכיחות של בינה מלאכותית גנרטיבית רק הקלה על יצירת זיופים עמוקים כאלה. כולנו צריכים להתרגל למציאות החדשה הזו - ומהר.

אם תרצה למנוע זיוף עמוק, תצטרך למחוק כל תיעוד חזותי ושמיעתי של קיומך

ג'נה ביין, אשתו של היוטיובר ג'ון "טוטלביסקוויט" ביין שנפטר כעת,פורסם בטוויטרבשבוע שעבר על דאגה חדשה שהיא מתמודדת איתה בזכות ההתקדמות של טכנולוגיית הבינה המלאכותית: "היום היה כיף. לעמוד בפני בחירה של קרצוף כל חייו של בעלי המנוח של תוכן מהאינטרנט. כנראה שאנשים חושבים שזה בסדר להשתמש בספרייה שלו כדי להכשיר AIs קוליים כדי לקדם את הפרשנות החברתית והדעות הפוליטיות שלהם". בתגובה היא קיבלה אהדה ותחנונים ממעריצי בעלה לשמר את מורשתו המקוונת.

אבל כאן הבעיה. אין שום דרך מעשית שג'נה ביין, או כל אדם אחר בתפקידה, יוכלו למנוע בצורה מספקת מישהו מליצור וידאו או קטע אודיו עמוק מזויף של ג'ון ביין. רק אכמה דקות של אודיונחוצים כדי לאמן AI לחקות קול; עבור וידאו deepfake, אתה צריך בעיקר צילומים שלריבוי הבעות פנים וזוויות. לכן, אם אתה רוצה למנוע מעצמך להופיע אי פעם בזיוף עמוק, תצטרך למחוק כל תיעוד חזותי ושמיעתי של הקיום שלך, אשר עבור כל מי שמשתמש בטלפון חכם הוא כל כך קרוב לבלתי אפשרי שזה יכול גם כן.לִהיוֹתבִּלתִי אֶפשָׂרִי. זה נכון עוד יותר לגבי דמות ציבורית כמו ביין, שהתארח בתוכניות ובפודקאסטים שלאשתו אין בהכרח את היכולת להסיר, ושגם פניו וקולו כבר נשמרו לנצח על הכוננים הקשיחים של מעריציו ברחבי העולם. עוֹלָם.

בשנות ה-90 וה-2000, פוטושופ אפשרה לאנשים להדביק פרצופים של מפורסמים על גופם העירום של אנשים אחרים, ובשנת 2018, הציבור למד כיצד ניתן להשתמש בטכנולוגיית AI כדי ליצורפורנוגרפיית וידאו שנראתה כמתארת ​​סלבריטאים. מאז, הטכנולוגיה רק ​​הפכה לנגישה יותר ויותר. חיפוש בגוגל "אפליקציית deepfake החינמית" יספק המון אפשרויות לתוכנת עריכה. בשנת 2023, הטכנולוגיה הזו כנראה עדיין משמשת ליצירת פורנו של מפורסמים, בדיוק כפי שהיה ב-2018, אבל אנשים בימינו משתמשים בה גם כדילגרום לסלבריטאים לומר שטויות. האינטרנט תמיד רץ על פורנו, אבל הוא פועל גם על ממים, אז זה עוקב.

אם תהיו מפורסמים מספיק, תעשו דה-הומניזציה ואובייקטיביות בצורה זו, והמעריצים שלכם יהיו מופתעים ומבולבלים אם תדחו נגד זה. אתה גם לא תוכל לעצור את זה. אבל זה לא מאמר שבו אני מנסה לשכנע אנשים לרחם על אנשים מפורסמים. (זה גם קרב אבוד, אם כי כזה שאני מנסה להילחם בו לפעמים.) זהו, במקום זאת, מאמר שבו אני מנסה לשכנע אנשים לא לסמוך על הווידאו והשמע שהם רואים ושומעים.

לקח לכולנו הרבה זמן להתרגל לקיומה של פוטושופ. לראות תמונה שזויפה בצורה חכמה יכולה עדיין להטעות אדם אינטליגנטי והגיוני להאמין במשהו שאינו נכון. זה הטבע האנושי לרצות להאמין במשהו שנראה אמיתי; אחרי הכל, לראות זה להאמין, נכון? כל זה אמר, חייתי את עליית הפוטושופ, ובגלל זה אני מאמין שנסתגל גם לזה.

אני לא יודע איך נראה העתיד, או אילו סוגי תקנות נצטרך כדי לטפל במצב הזה. אבל אני כן יודע דבר אחד: זה כבר כאן. אנחנו חיים בעולם שבו סוג זה של זיוף הוא לא רק אפשרי, אלא קל להפליא. כעת עלינו לקבל שזה כאן ולהתקדם אל מציאות שבה הספקנות שלנו מתרחבת וכוללת עוד יותר סוגי תחבולות.