זה לא נגמר: בינה מלאכותית שיודעת לנתח רגשות ע"ב תמונות
מדובר במודל בינה מלאכותית בשם PaliGemma2 שמסוגל לנתח רגשות בהתבסס על תמונות | החברה הכריזה על החידוש אתמול ובו יכולות חדשניות הכוללות תיאור מדויק של פעולות, רגשות וסיפורי רקע של סצנות מצולמות
- קובי ברקת
- ה' כסלו התשפ"ה
גוגל הכריזה על פיתוח חדשני בתחום הבינה המלאכותית – מודל בשם PaliGemma2, שמטרתו לנתח רגשות באמצעות תמונות. הפיתוח, שהוצג אתמול (חמישי), משלב טכנולוגיות מתקדמות המסוגלות לזהות לא רק אובייקטים אלא גם את ההקשר הרחב של סצנות מצולמות, כולל פעולות, רגשות, ואף רקע סיפורי.
ע"פ הפרסום במעריב, בגוגל טוענים, כי המערכת יכולה "לזהות" רגשות כמו כעס, שמחה או פחד, אך פונקציה זו אינה מופעלת באופן אוטומטי ודורשת התאמות אישיות. מדובר בטכנולוגיה פורצת דרך המאפשרת יצירת כיתובים מדויקים וניתוח חזותי מעמיק, אך ההתפתחות מעוררת דאגות מוסריות אצל מומחים.
היכולת לנתח רגשות מבוססת, בין היתר, על תיאוריית הרגשות הבסיסיים של הפסיכולוג פול אקמן, שטען כי שישה רגשות הם אוניברסליים. עם זאת, מחקרים עדכניים מצביעים על כך שהביטוי הרגשי משתנה בין תרבויות שונות, מה שמעלה ספקות באשר לדיוק התיאוריה.
יתרה מכך, מערכות לניתוח רגשות עלולות לשקף הטיות הנובעות מהנחות המפתחים. מחקר מ־2020 שנערך ב־MIT בארה"ב גילה כי מודלים כאלה נטו לייחס רגשות שליליים לתווי פנים של אנשים מקבוצות מיעוט בהשוואה לאנשים לבנים.
גוגל טוענת כי המודל עבר בדיקות קפדניות להערכת הטיה דמוגרפית, כולל שימוש במערכת FairFace, אך מומחים מותחים ביקורת על כך שהבדיקות הללו אינן מייצגות באופן מספק את מגוון האוכלוסיות בעולם.
האיחוד האירופי כבר סיווג טכנולוגיות לזיהוי רגשות כ"עתירות סיכון". חוקי ה־AI החדשים אוסרים שימוש במערכות מסוג זה במוסדות חינוך ובמקומות עבודה, אך מתירים את יישומן על ידי רשויות אכיפת חוק. החשש המרכזי הוא כי זמינות רחבה של המודל החדש עלולה להוביל לשימושים פוגעניים, כולל אפליה כלפי קבוצות מוחלשות.
דובר מטעם גוגל ציין כי החברה השקיעה רבות בבדיקות אתיות, כולל בחינת ההשפעות האפשריות על קבוצות שונות. כמו כן, המודל נבדק גם בהקשר של בטיחות ילדים ותכנים רגישים. עם זאת, בשלב זה לא פורסם מועד להשקת המודל לציבור הרחב.
הוספת תגובה
לכתבה זו טרם התפרסמו תגובות