top of page

הסכנות

השימוש בטכנולוגיות מעקב מתקדמות על ידי הרשויות מסייע לשמירה על ביטחון הציבור, אך גם מציב  שורה של סכנות משמעותיות לחברה, לזכויות האדם ולמשטר הדמוקרטי. יכולות איסוף נתונים, עיבודם וניתוחם באופן אוטומטי ויעיל, במיוחד כשהן מיושמות באופן גורף על כלל האוכלוסייה ולא רק על חשודים בעבירה, מאפשרות לשלטון לפגוע בזכויות יסוד, לצמצם את המרחב הדמוקרטי, לפגוע באמון הציבור ולערער את יסודות המשטר הדמוקרטי.

פגיעה בפרטיות

השימוש בטכנולוגיות של צילום וזיהוי מאפשר למשטרה לאגור מידע עצום על אזרחים, רובם חפים מפשע, לתקופה ממושכת וללא צו שיפוטי. מידע זה, הכולל תמונות, צילומי וידאו ומיקום מדויק, חושף פרטים אינטימיים על חייהם של אנשים, תנועותיהם ומפגשיהם. השימוש ברוגלות אף חמור יותר: הוא מאפשר חדירה למכשירים אישיים וחשיפה כמעט לכל המידע האישי של האדם, הכולל לא רק תקשורת אלא גם קבצים אישיים, תמונות, היסטוריית גלישה, מיקום, מידע רפואי ופיננסי ועוד.

גם אם “אין לנו מה להסתיר”, לא בהכרח נרצה שמישהו יידע כל מה שאנחנו עושים.ות, להיכן אנחנו הולכים.ות, מה אנחנו חושבים.ות ומה אנחנו אוהבים.ות. המשמעות של הזכות לפרטיות היא היכולת שלנו לשלוט במידע שאחרים יודעים עלינו, ולהחליט מה אנחנו מעוניינים לחשוף ובפני מי.

פגיעה בחירות וצמצום המרחב הדמוקרטי

טכנולוגיות מעקב עלולות לאפשר לשלטון לפגוע בחירות של אזרחים על ידי איסוף מידע על העדפותיהם הפוליטיות, השתייכותם הקבוצתית ודעותיהם. מידע זה יכול לשמש ל"סימון" פעילים ויצירה של "רשימות שחורות" לדיכוי ביקורת, להשתקה של מתנגדים ואף להטיית תוצאות בחירות.

גם אם השלטון לא ישתמש במידע באופן פוגעני, איסוף מידע המוני על ידי השלטון יוצר אפקט מצנן על חופש הביטוי וחופש ההתארגנות ומצמצם את המרחב הדמוקרטי. עצם התחושה שאין לנו פרטיות, שאנחנו במעקב מתמשך, יוצרת השפעה ממשטרת וממשמעת, המגבילה את מרחב הפעילות וההתנהגות שלנו ופוגעת בחופש שלנו במובנו הבסיסי ביותר. כשאנחנו יודעים שמישהו יודע הכל, אולי נחשוב פעמיים אם ללכת להפגנה, אם להצטרף לקבוצת פייסבוק או אם להביע את דעתנו בקבוצת ווטסאפ. בטווח הארוך, מצב זה עלול להוביל גם לשחיקת אמון הציבור במערכת הפוליטית ולפגיעה בלגיטימציה של השלטון.

הסתמכות על טכנולוגיות שאמינותן מוטלת בספק

מערכות בינה מלאכותית, המהוות חלק מרכזי בטכנולוגיות מעקב, חשופות לטעויות ולהטיות, והדיוק שלהן מוגבל. הניסיון בעולם מלמד, למשל, שטכנולוגיות זיהוי פנים, משוכללות ככל שיהיו, עלולות  להוביל לזיהוי שגוי ולמעצרי שווא, במיוחד של אנשים ונשים מקבוצות מיעוט. רבות מהמערכות הטכנולוגיות המתקדמות פועלות כ"קופסה שחורה", כאשר לאדם שמפעיל את המערכת אין גישה לחומרי הגלם ולמידע שעליו היא מתבססת או לאלגוריתמים המפעילים אותה, ואין לו אפשרות לבחון את אופן פעולתה או את מידת הדיוק שלה. לכן, הסתמכות על מערכות אוטומטיות ועל טכנולוגיות של בינה מלאכותית לצורך קבלת החלטות משמעותיות, כמו עיכוב וחיפוש על אזרחים, עלולה להוביל להחלטות שרירותיות ולפגיעה בזכויות יסוד.

קושי בפיקוח ובקרה

הטכנולוגיות החדשות מוכנסות לשימוש פעמים רבות בחשאי, ללא דיון ציבורי וללא הסדרה בחקיקה, והן מופעלות על ידי גופים שגם כך מרכזים בידיהם כוח רב ונוטים לפעול בהיעדר שקיפות. גורמים אלה  מקשים על פיקוח ובקרה אפקטיביים של הציבור או של גופים בלתי תלויים על אופן השימוש בטכנולוגיות. במקרה הטוב, היעדר שקיפות ופיקוח עלול לאפשר שימוש לא מידתי בטכנולוגיות והפרת האיזון בין ביטחון הציבור לבין זכויות האדם; במקרה הרע, היעדר מנגנוני פיקוח ובקרה אפקטיביים עלול להוביל לשימוש לרעה בכלי המעקב נגד מתנגדי משטר, עיתונאים ופעילי זכויות אדם.

bottom of page