איך נוכל ללמד את הבינה המלאכותית לעבוד בלי הטיות כשאנחנו עדיין עם לא מעט כאלו?
אפליה בפיתוח תרופות או טכנולוגיות הוא עניין מטריד, אך אנו יודעים שהיא התחילה הרבה לפני השימוש בלמידת מכונה.
אבל בלמידת מכונה - אם ישנה הטייה מובנית במאגר הנתונים, גם האלגוריתם עצמו יהיה מוטה – כי הוא ינסה להבין את החוקיות הקיימת שנבנתה על ידי בני האדם.
הצורך בגיוון (DIVERSITY ) תמיד רלוונטי, וכנראה שעשוי להועיל גם כאן - גיוון בצוות שמעצב את האלגוריתם ( וכדאי גם גיוון בנתונים).
אבל האם יש בכלל אמצעים או כלים מוגדרים היטב לבדיקת הטיות באלגוריתמים?
הבעיה מתחילה בדאטה או באנשים?
על עוד דוגמאות מרתקות לאפליות מגדריות ואחרות, למה הן נוצרות, ומה ניתן לעשות עם התופעה, בואו ללמוד ולקבל מבט מבפנים עם שירה ויינברג הראל האלופה, יועצת ומומחית PRODUCT ו AI, יזמת, צלמת ועוד ועוד-
וטריוויה : אגב שתינו בוגרות מיקרוסופט ושירה אף היתה בצוות המפתח את קורטנה ( גם עליה נשמע כמובן)
Ещё видео!