הכותרות שעניינו הכי הרבה גולשים בדף זה
לפני 3 שעות
9.94% מהצפיות
מאת גיקטיים
אחד המאפיינים הכי מוכרים של גוגל הוא היכולת פשוט לחסל מוצרים ברגע. במהלך השנים אפילו נולד מושג בשם "בית הקברות של גוגל" שכולל כבר כמות אדירה של פיצ'רים, מוצרים, אפליקציות ושירותים שונים שגוגל הרגה במהלך השנים, ועוד רגע אנחנו חוגגים את המוצר ה-300 שגוגל רוצחת. המוצר ה-299 שמצטרף לרשימה הוא דווקא אחד החשובים שבהם, ונועד […]
לפני שעתיים ו-12 דקות
9.36% מהצפיות
מאת גיקטיים
ענקית הסייבר הישראלית Palo Alto Networks נמצאת בתקופה מאוד מעניינת. אחרי שהודיעה על הרכישה הגדולה בהיסטוריה שלה, והשנייה בגודלה בהיסטוריה של ההייטק הישראלי, המייסד שלה וה-CTO, ניר צוק, הודיע על עזיבה אחרי 20 שנה בחברה. באירוע שערכה אתמול (ב') החברה לעיתונאים, התייחס ניקש ארורה, מנכ"ל החברה, למצב של Palo Alto Networks אחרי פרישת המייסד, העתיד […]
לפני 3 שעות ו-58 דקות
7.6% מהצפיות
מאת עניין מרכזי
הציבור מוזהר מגל נסיונות מגוונים של נוכלים לחדור אליכם ולגנוב את ממונכם. מדובר במסרים בנוכח חובות דמיוניים לגופים שונים כמו כביש 6, לצד איומים ופיתויים מסוגים שונים. בימים האחרונים מופץ גם נוסף של נסיונות פישינג שבהן הנמען נדרש ללחוץ על קישור ולמלא פרטים שלאחריהם חייו יהיו מסורים בידי סחטנים. בהודעות המזויפות נכתב בין היתר: "ביטוח… קראו עוד זהירות! גל נסיונות הונאה מציף את הטלפונים החכמים
לפני שעה ו-8 דקות
7.6% מהצפיות
מאת גיקטיים
במציאות שבה נמלים, אוניות ומערכות לוגיסטיות נשענים על אוטומציה, חיישנים, AI ותהליכי תפעול מרחוק, הגבול בין העולם הפיזי לעולם הדיגיטלי כמעט נעלם. אם בעבר תקיפת סייבר נתפסה כאירוע טכנולוגי נקודתי, הרי שהיום היא הפכה לאיום אסטרטגי שעלול לשתק שרשרת אספקה שלמה בתוך דקות. זאת בדיוק הסיבה שנמל אשדוד ומערך הסייבר הלאומי מחפשים סטארטאפים שיוכלו לפתח […]
לפני 11 שעות ו-35 דקות
7.02% מהצפיות
מאת עכשיו 14
תחקיר מיוחד שפורסם ברויטרס חושף כיצד ענקית הטכנולוגיה שגורפת מיליארדי דולרים מפרסום - מתעלמת מהונאת המשתמשים • על אף שלאזרחיה אסור להשתמש ברשתות של החברה, סין אחראית על נתח נכבד מהפרסומות שנועדו להונות את הגולשים • פרטי התחקיר המטריד
לפני שעתיים ו-29 דקות
5.26% מהצפיות
מאת Telecom News
הכתבה עוסקת בפרשת ההגנה ביום מס' 2 של עדות אפי אזולאי בביהמ"ש המחוזי בי-ם ובהמשך עדכונים בתיקי האלפים. מאת: Telecom News
לפני 3 שעות ו-11 דקות
4.68% מהצפיות
מאת אנשים ומחשבים
הרעש סביב הבינה המלאכותית בעולם אבטחת הסייבר והגנת הפרטיות מותיר ארגונים ומנהלי אבטחת מידע רבים מבולבלים. אלא שבתוך תחום רועש זה, מסתמנת נקודת מפנה חדשה במאבק בין מערכות זיהוי פנים – לבין האנשים שמנסים להתחמק מהן: סוג חדש של הסוואה דיגיטלית צמח ממחקר בינה המלאכותית של DARPA (ר"ת Defense Advanced Research Projects) – גוף המחקר הפדרלי בעל השם הקליט – "הסוכנות למחקר פרויקטי ביטחון מתקדמים במשרד ההגנה האמריקני" – אחראי על פיתוחים טכנולוגיים רבים בצבא ארה"ב ובצבאות זרים, לצד שימושים אזרחיים, ומכונה (הסוכנות) "המשוגעת".
כלי ה-AI החדש, הנתמך על ידי סוכנות המחקר, פועל באופן שונה מהרגיל: במקום להוסיף רעש, פילטרים או עיוותים נראים לעין, הטכניקה, הנקראת DiffProtect, משכתבת בעדינות את פניו של אדם בתמונה, תוך שימוש באותה טכנולוגיית בינה מלאכותית יוצרת, העומדת מאחורי כלי יצירת תמונה.
התמונה שמתקבלת עדיין נראית לכל צופה אנושי כמו הדמות שבתמונה – אך במערכות זיהוי פנים מתקדמות, התמונה הופכת למשהו אחר לגמרי.
הטכנולוגיה פותחה על ידי חוקרים מאוניברסיטת ג'ונס הופקינס, אוניברסיטת הונג קונג ו-AMD. המחקר נתמך על ידי תוכנית של סוכנות GARD (הבטחת עמידות של AI מפני הטעיה), שנועדה להבנה טובה יותר ולמציאת דרכים להתמודד עם האופן שבו מערכות לימוד מכונה עלולות להטעות. תוכנית GARD מתמקדת במחקרים על דינמיקות עוינות בין מערכות AI לקלטים (הנתונים המוכנסים לעיבוד) מטעים.
אנליסטים ציינו, כי ממצאי המחקר פורסמו ב"תזמון מרשים", כאשר מערכות זיהוי פנים עברו מעולם האבטחה הפיסי, שם נעשה בהם שימוש נישתי – לשדות תעופה, טלפונים חכמים, מערכות מניעת אובדן ברשתות קמעונאות ומאגרי נתונים נרחבים של מדיה חברתית. כך, ציינו אנליסטים, "מיליארדי אנשים חיים כבר בתוך רשת ביומטרית גלובלית, שאליה הם לא בחרו להצטרף באופן מודע. ככל שיותר מערכות שכאלו מוטמעות באופן נרחב, כך גדלים החששות לגבי שיעורי טעויות, הטיות, זיהוי שגוי ושחיקת האנונימיות – במרחבים ציבוריים ודיגיטליים".
בבסיס המחקר של DiffProtect עומדת ההנחה, שלפיה אותו סוג של מודלים מבוססי AI, שמאפשרים זיהוי פנים באופן הולך וגדל – יכול גם לערער אותו. היא בנויה על מודלים של דיפוזיה (פעפוע), טכנולוגיה שעומדת בבסיס רבים ממחוללי תמונות ה-AI.
אלא שבניגוד לאפליקציות שיוצרות תמונות מאפס, DiffProtect משתמשת במקודד אוטומטי מפעפע, לוקחת תמונת פנים ומפצלת אותה לשני ייצוגים פנימיים: קוד סמנטי ברמה גבוהה, שקולט את הפרטים והתכונות העיקריים בתמונה; וקוד רועש ברמה נמוכה, שמקודד טקסטורה, תאורה ופרטים עדינים נוספים.
על ידי התאמת הקוד הסמנטי בלבד, המערכת יכולה לשנות בעדינות את תכונות האדם המצולם בעת שחזור התמונה. השינויים האלה כמעט בלתי מורגשים. לפי החוקרים, התמונה המשופרת נראית כמו צילום אמיתי וקוהרנטי ולא שגויה או פגומה.
כך, DiffProtect מציגה שינויים זעירים בהבעות הפנים, בצורת העין, בגוון העור או במבנה הפנים, שמספיקים לבלבל מודל זיהוי ממוחשב, אך לא בולטים מספיק לצופה אנושי.
על מנת שהשינויים יישארו מזעריים ולא ישנו את דמות המצולם, החוקרים בנו "רגולציה", "מדיניות" – מערך חוקים סמנטיים, שמשווה ובודק את התמונה המקורית מול זו שעברה שינוי, ומגביל את פעילות האלגוריתם. כך, הסבירו, "לכלי מותר להטעות את המכונה, אבל לא את האנשים שמביטים בתמונה".
לפי החוקרים, הכלי הציג ביצועים מרשימים: בתרחישי תקיפה ממוקדים, שבהם המערכת מנסה שתמונת פנים אחת תיראה כאחרת, DiffProtect השיגה שיעורי הצלחה גבוהים ב-24% לעומת החלופות המובילות, תוך שמירה טובה יותר על איכות התמונה. הכלי נותר יעיל גם בעת שימוש בסוגי הגנות שונים, לרבות מערכות זיהוי פנים מסחריות.
"כלים כמו DiffProtect אינם מיועדים להסתיר פושעים", ציינו החוקרים, "הם מציעים לאנשים דרך טכנית להשיב לעצמם מידה מסוימת של חופש, פרטיות ועצמאות".
למרות ההבטחה שלו, DiffProtect עדיין אינו משווק כיישום צרכני בשל הצורך בחומרה חזקה וזמן חישוב משמעותי.
החוקרים סיכמו: "חל שינוי עמוק. הפרטיות בעידן ה-AI עשויה בסופו של דבר להיות תלויה ב-AI עצמה".
לפני שעתיים ו-29 דקות
4.68% מהצפיות
מאת Telecom News
המשך חשיפת המחדל שעולה על מחדל מלחמת יום כיפור בה איבדתי 119 מחברי בחטיבה 600 ונפלתי בשבי. חשיפת מי אחראי לאיסוף המודיעין מרצועת עזה, למה לא היה מודיעין והכל כשל בשעות קריטיות + עדכונים. מאת: אבי וייס