הכותבת הינה נעמה מטרסו קרפל מנכ”ילת עמותת פרטיות ישראל – Privacy Israel שפועלת לקידום הפרטיות בישראל.
מיזם יפני פיתח בגדים שמקשים על מערכות AI – בינה מלאכותית, לזהות א.נשים במרחב הציבורי מתוך אמירה חברתית נגד יוזמות של “מדינת המעקב” (state surveillance). כלומר – אופנה שמאפשרת לנו לשמור על הפרטיות, מבלי להידרש לאיפור, מסיכות או אביזרים מכבידים אחרים.

מעט על הטכנולוגיה: על הבגדים מודפסים תבניות שמבוססות על טכנולוגיה בשם “Adversarial Examples”, שמשבשת את תהליך הזיהוי והקטלוג (classification) של פריטי מידע במנגנוני הבינה המלאכותית. השיבוש נעשה על-ידי הוספת רעש שכמעט בלתי נראה לעין אנושית.

התוצאה: בגדים לא רעים בכלל, שמייצגים אמירה חברתית-פוליטית. מה שבעיקר מגניב בבגדים האלו, שזה לא דורש מאיתנו הרבה, רק תעוזה אופנתית. זה הדרייפיט של עולם הפרטיות. להיות עם, ולהרגיש בלי (או הפוך). מה שבעיקר מעניין בייצוג של הבגדים – שהם בחרו בנשים ובצבע הוורוד. שני ייצוגים שנתפסים כהרבה יותר ידידותיים, ומרחיקים אותנו מהקונוטציה המיידית (והמוטעית) – שפרטיות ואנונימיות היא נחלתם של אנשי האופל: פושעים, טרוריסטים, גברים מפחידים בסמטה חשוכה.
באופן כללי, זה מדהים בעיני החיבור בין טכנולוגיה, אופנה, אמנות ואמירה חברתית.
החיבור שלי לנושא – אני לא רק חובבת אופנה, טכנולוגיה, יפן ומה שביניהם, אני גם מנכ”ילת עמותת פרטיות ישראל – Privacy Israel שפועלת לקידום הפרטיות בישראל. אחת השאלות הכי קשות שאני נשאלת על פרטיות היא – מה *אנחנו* יכולים לעשות. התשובה תמיד קשה – כי תכלס אין לנו, כאינדיבידואלים, הרבה מה לעשות שימנע את הפגיעה בפרטיות. כמובן שכחברה, התאגדות – יש המון, אבל זה כבר למאמר אחר.
במהפכת המידע, האלטרנטיבות שלנו ממש לא משהו:
במקרה הגרוע – להפסיק להשתמש בשירותים, אתרים או אפליקציות שאוספים עלינו מידע – אפשרות גרועה וכמעט בלתי אפשרית.
במקרה הטוב – לעבוד בלשמור על הפרטיות, להיות מודעים וביקורתיים יותר, ולהשתמש בשירותים וטכנולוגיות שומרות פרטיות (חפשו אותי בסיגנל) – וזה לא הכי מתאים לכולן.ם, וזה ממש בסדר.
פורסם לראשונה בקבוצת ״עליית המכונות״ בפייסבוק