18/05/2024

Athens News

חדשות בעברית מיוון

AI זיהה יעדי הפצצה ברצועת עזה


דיווח לפיו הצבא הישראלי משתמש במאגר מידע של בינה מלאכותית לא בדוק ולא ידוע כדי לזהות מטרות במסע ההפצצות שלו בעזה, הדאיג מומחי זכויות אדם וטכנולוגיה, שאומרים שזה עלול להסתכם ב"פשעי מלחמה".

פרסום ישראלי-פלסטיני +972 מגזין ותקשורת יהודית Local Call דיווחו לאחרונה כי הצבא הישראלי מזהה אלפי פלסטינים כמטרות הפצצה פוטנציאליות באמצעות מערכת הכוונת בינה מלאכותית בשם לבנדר.

"בסיס הנתונים הזה אחראי להרכבת רשימות מוות עבור עד 37,000 מטרות".– אמר רורי צ'לנדז, כתב ערוץ הטלוויזיה אל-ג'זירה האסור בישראל, ביום חמישי, ודיווח ממזרח ירושלים הכבושה.

גורמי מודיעין ישראלים ללא שם ששוחחו עם התקשורת אמרו כי מרווח הטעות של לבנדר היה כ-10%. "אבל זה לא מנע מהישראלים להשתמש בו כדי לזרז את זיהוים של אנשי חמאס הנמוכים לעתים קרובות בעזה ולהפציץ אותם". – אמר צ'לנדס.

מתברר שהצבא הישראלי "להשתמש במערכות בינה מלאכותית שלא נבדקו… כדי לקבל החלטות לגבי חייהם ומותם של אזרחים, מארק אוון ג'ונס, פרופסור חבר ללימודי המזרח התיכון ומדעי הרוח הדיגיטליים באוניברסיטת חמיד בין ח'ליפה, אמר לאל ג'זירה. – בואו נהיה ברורים: זהו רצח עם בסיוע בינה מלאכותית, ועלינו לקרוא כעת להקפאת השימוש בבינה מלאכותית במלחמה".

כלי תקשורת בישראל דיווחו כי שיטה זו הובילה למותם של רבים מאלפי האזרחים העזתיים. ביום חמישי אמר משרד הבריאות של עזה כי נכון ל-7 באוקטובר, כתוצאה מישראל התקפות מת לפחות 33,037 פלסטינים ו-75,668 פצועים.

השימוש בבינה מלאכותית "מפר" את החוק ההומניטרי. "האנשים שקיימו אינטראקציה עם מסד הנתונים של AI היו לרוב רק חותמת גומי. הם היו בוחנים את רשימת ההרוגים הזו במשך 20 שניות לפני שהחליטו אם לאשר תקיפה אווירית או לא".אמר צ'לנדס.

בתגובה לביקורת המורחבת, הצבא הישראלי אמר שהאנליסטים שלו צריכים להתנהל "בדיקות עצמאיות" להבטיח שהמטרות שזוהו עומדות בהגדרות הרלוונטיות על פי החוק הבינלאומי והגבלות נוספות המוטלות על ידי כוחותיהן. הם הפריכו את הרעיון שטכנולוגיה היא "מערכת" "סתם מסד נתונים שמטרתו להצליב מקורות מודיעיניים כדי להשיג שכבות עדכניות של מידע על פעילים צבאיים של ארגוני טרור".

אבל העובדה שלכל לוחם פלסטיני שהיה המטרה המיועדת, היו "חמישה עד עשרה מקרי מוות משוערים של אזרחים" מראה למה כל כך הרבה אזרחים מתו בעזה, אומר צ'לנדס.

פרופסור טובי וולש, מומחה לבינה מלאכותית מאוניברסיטת ניו סאות' ויילס בסידני, אומר כי חוקרים משפטיים עשויים לטעון ששימוש בבינה מלאכותית לצורך התמקדות מפר את המשפט ההומניטארי הבינלאומי. "מנקודת מבט טכנית, החדשות האחרונות מראות עד כמה קשה לשמר את האלמנט האנושי תוך מתן פיקוח משמעותי על מערכות בינה מלאכותית שמזינות מלחמה בצורה נוראית וטרגית". – אמר בראיון לאל-ג'זירה.

ראוי לציין שהצבא כנראה יהיה מוצדק ב-100% בשימוש בבינה מלאכותית כדי לזהות מטרות פוטנציאליות עם שגיאה כזו. מאז, לפי דובר הבית הלבן ג'ון קירבי, הם לא הקליטו לא תקרית אחתשבו ישראל תפר המשפט ההומניטרי הבינלאומי! המשמעות היא שכל מה שקרה במהלך המלחמה בעזה, כמו גם התקיפה על שגרירות איראן בסוריה – כל זה, מבחינת ארה"ב, הוא חוקי לחלוטין.

לא פלא שאומרים: "אם ג'נטלמן לא יכול לנצח לפי הכללים, הוא משנה אותם".



Source link