https://bodybydarwin.com
Slider Image

אדובי מלמדת בינה מלאכותית לרחרח תמונות פוטושופיות

2021

אנשים עושים שימוש בתמונות מאז הופעת מצלמות הצרכן לפני יותר ממאה שנה. כתוצאה מכך ציניקנים מנסים לרחרח את המניפולציות הללו ולחשוף הונאות במשך אותה פרק זמן. עם התקדמות כלי העריכה, השיטות לניתוק עריכות מטורפות פגרו מאחור - לפחות מחוץ לתחומים כמו אכיפת חוק ומעבדי פלילי.

הארסנל של אדובי למציאת זיופים כולל מספר כלים הממנפים בינה מלאכותית. לאחרונה הודיעה החברה על כמה מחקרים בשיתוף UC ברקלי שנועדו לאתר שינויים שנעשו בפנים באמצעות תכונה המובנית בפוטושופ בשם Face Aware Liquify. יש עוד דרך ארוכה לפני שתוכל לכוון פיסת תוכנה על תמונה ולקבל תשובה חסרת תקלות לגבי האותנטיות שלה, אבל פרויקטים כמו זה עשויים להיות חיוניים ככל שאנו נתקלים יותר ויותר בסרטונים המשכנעים, אך ההונאים, הידועים כ זיופים עמוקים.

זו אינה ההפעלה הראשונה של אדובי לאימות תמונה מבוסס AI. למעשה, החברה כבר פרסמה נתונים על טכניקות המתמקדות בטכניקות עריכת תמונות נפוצות יותר כמו שחבור תמונות יחד, הסרת אובייקטים מצילום או העתקה והדבקה של אזור אחד בתמונה למקום אחר. כל אלה הן אסטרטגיות מוכרות של נייר-פנים.

עם זאת, טכניקות אלה באו בדרך כלל מעורך אנושי שיכול לראות את התמונה ואת המוצר המוגמר, אך יתכן שלא יראה את שורת הרמזים שהם משאירים לגבי עבודותיהם. לדוגמה, העתקה והדבקה של אלמנט ממקום למקום יכולים לשבש את דפוס הרעש הדיגיטלי שנוצר על ידי חיישן של מצלמה דיגיטלית.

עם זאת, המחקר החדש מציג טכניקה שנועדה לבצע מהנדסי רוורס שהסתמכו על AI מלכתחילה.

כלי ה- Liquify של פוטושופ קיים כבר דורות של התוכנה. חיסול תמונה מאפשר לך לדחוף ולמשוך את הפיקסלים מסביב. זה כלי נפוץ לרטשנים מכיוון שהוא מקל (לטוב ולרע) לגרום לחלק ספציפי מגוף הדגם להיראות עבה או דק יותר. עם זאת, לפני מספר גרסאות, Adobe הכריזה על Face Aware Liquify המשתמשת ב- AI כדי לזהות אלמנטים בודדים על הפנים ומאפשרת לרטשנים לתפעל בקלות משתנים כמו גודל וצורת העיניים, האף והפה.

באמצעות Face Aware Liquify, אתה יכול להרכיב מחוונים לאורך כל הדרך ותוכל לעשות כמה דברים מסויטים באמת, אבל השתמש בהם בעדינות ותוכל לשנות אדם את פניו או את הבעתו באופן שלפעמים לא ניתן להבחין בו אם אתה לא ראיתי את המקור.

במחקר שלה, Adobe הראתה זוגות תמונה משתנית imagesone, ואת originalto היא הרשת העצבית ועל בבני אדם. בני אדם יכלו לזהות את התצלום ששונה כ -53 אחוז מהזמן, אך על פי הדיווחים, הרשת העצבית השיגה בערך 99 אחוז דיוק. מעבר לכך, ה- AI יכול גם לפעמים לבטל את העריכות כדי לקבל קירוב למקור באמצעות שילוב של רמזים כמו עיוות שנגרם כתוצאה מהשפעות העיוות המקוריות.

אמנם כלים כמו אלה מועילים, אך עדיין יש דרך ארוכה לפני שתהליך הגילוי יתפוס את היצירה. האני פאריד, פרופסור למדעי המחשב מאוניברסיטת ברקלי, אמר לאחרונה לוושינגטון פוסט כי החוקרים שמנסים לאתר קטעי וידאו עמוקים עומדים על 100 עד 1 על ידי אלה העובדים על הפיכת הסרטונים לשכנעים יותר וקשה יותר לרחרח אותם.

וגם אם הטכנולוגיה תופס, יש עדיין עוד משתנים שאפשר להבין, לא פחות מהם לגרום לאנשים לסמוך על שיקול דעתה של AI, במיוחד כאשר התוכן שהוא מעריך יכול להיות פוליטי או קיטבי. ישנה גם הבעיה הישנה עם אימות תמונות: אישור שתמונה או סרטון לא שונו באופן דיגיטלי יכול להעניק יותר מדי אמינות למסר שלה. הצלם או הצלם צלם עדיין בוחר באופן פעיל איזה מידע להציג ואיך הוא הציג, ולכן עדיין אפשרי להטעות את הצופים ללא מניפולציה דיגיטלית.

אין שום דרך לנסות את הכלים כרגע, כך שתוכלו לנסות את זה בעצמכם עדיין, אך כמו Adobe וחברות אחרות, כמו גם הצבא להמשיך להמשיך לעבוד סוג כזה של טק, צפו לשמוע עוד על כך. כמו כן, צפו לראות תמונות וסרטונים מזויפים נוספים.

פודקאסט Techathlon: ניטרליות נטו, פעלולי פרסום וסטטיסטיקות סטרימינג

פודקאסט Techathlon: ניטרליות נטו, פעלולי פרסום וסטטיסטיקות סטרימינג

רשת עצבית עזרה לחוקרים לפצח מספרי PIN של סמארטפון באמצעות חיישני תנועה מובנים

רשת עצבית עזרה לחוקרים לפצח מספרי PIN של סמארטפון באמצעות חיישני תנועה מובנים

סוף סוף אנו יכולים לדעת מדוע מריחואנה עוזרת לאנשים הסובלים מבעיות בטן כרוניות

סוף סוף אנו יכולים לדעת מדוע מריחואנה עוזרת לאנשים הסובלים מבעיות בטן כרוניות