July 2019

Facebook is Like a Black Mirror

By: Dana Yaffe and Racheli Edri.

Read More

Facebook's decisions on content removal affect how we consume and share information, how we perceive our rights to freedom of expression, and the right to information

What kind of entity is Facebook? Is it just a private company? Or when it makes a decision to remove a page that has a large number of followers, does it have the characteristics of a public figure? This is the question posed by the Movement for Freedom of Information, represented by the clinic on Human Rights in Cyberspace at the Hebrew University, to the Israeli Supreme Court in the hearing  regarding Facebook’s decision to permanently remove a page with over 700,000 followers named “Tweeting Statuses.”

The Movement's position is that such a decision is not just a matter of contract interpretation, or a mere dispute between two private parties, but rather a matter of great public interest. Ehen it comes to decision of content removal, Facebook's unique character and position in cyberspace has to be considered,  and accordingly, it must be obligated to ensure a fair and transparent process with its users.

The central status of Facebook in cyberspace is universally acknowledged. The platform has more than two billion users worldwide, and in Israel over 60 percent of the population uses it. For these users, the platform is the one to determine to which information they will be exposed. it knows us better than we know ourselves.

During the hearing in the Supreme Court, in order to illustrate the great power Facebook has, Justice Amit mentioned the television series Black Mirror. By his inspiration, we  recommend to watch the second episode of the fifth season, in which a desperate man decides to kidnap an employee of an international technology company. The London police is present physically, while Smithereen, the company, is also present – in cyberspace.

Which intelligence body has access to the information needed to save the situation: the British police and the FBI, or Smithereen, California? Who will be the first to decipher the kidnapper’s mental state and manipulate it, or to trace his last actions? Who will manage to penetrate the common domain of the kidnapper and the hostage and listen to their conversations? 

Smithereen is analogous to Zuckerberg's omnipotent and omnipresent Facebook. It is the gateway to any social, personal or professional interaction in today’s world, providing us with essential services of content and media. Through these services we consume news and information and thus they shape the consciousness of the masses. It has unprecedented information about each of its users – and knowledge is power.

Facebook has enormous power over each and every user, leading to an almost unbelievable advantage it has over ‘The State’. Facebook's decisions on content removal affect how we consume and share information, how we perceive our rights to freedom of expression, and the right to information.

In light of all this, one must wonder how Facebook makes its decisions. What considerations guide it, and what values it takes into account upon making such a decision? A more simple question is: how much content did Facebook remove in Israel claiming that it is in breach of its policy?  An answer to this question was not given during the hearing, since the transparency report Facebook published includes various statistics, but it is not detailed by states.

Facebook has special characteristics and is clearly not an ordinary player. The question as to what legal obligations should be borne by such a company must be examined very cautiously. The imposition of obligations on a private body whose main purpose is to maximize profits might in itself lead to violation of basic rights. Imposing legal liability on Facebook on account of content uploaded by its users, might encourage extensive removal of content, including legitimate content. Facebook must certainly not be entrusted with the task of determining which information is true and which is false,  as if it was the “Ministry of Truth”.

Equally, though, it is clear that some regulation is required. Is this a radical position? Apparently not, since Zuckerberg himself has acknowledged publicly the need for regulation, as has Bill Gates. Both moguls have declared that regulation is needed in view of the far-reaching effects of their developments on civilization. The Head of the Israeli Elections Committee, Justice Hanan Meltzer, apparently shares this position and has obligated Facebook to  meet the legal  transparency requirements of political campaigns during the Israeli election period. The first step toward shaping proper regulation is to require fair and transparent content removal process, so that we have the information needed to base and enact carefully considered regulation.

This article was published originally in TheMarker,

The writers are lawyers. Dana Yaffe is the clinical director of the Clinic on Human Rights In cyberspace at the Hebrew University, and Racheli Edri is the CEO of the Movement for Freedom of Information.

Read Less

International Law as a Limit on Active Defense in Cyberspace

By: Yuval Shany.

Read More

Active defense in cyberspace may involve operations taking place outside the network boundaries of a potential victim of a harmful cyber operation and intrusion into the attacks computer system or its cyber infrastructure with a view to collect information about the identity of those behind the cyber operation (e.g., ‘beaconing’), or with a view to inflict harm on the attacker’s software, hardware or data either in order to stop an ongoing cyber-attack, to prevent a future one and/or to deter the attacker or others from doing so. This ‘hunted becomes the hunter’ situation can be resorted to by governments – either in response to an attack against government cyber infrastructure or private cyber infrastructure subject to its jurisdiction, or by private actors whose own infrastructure was breached.

Much of the discussion about the legality of such ‘hack backs’ revolved in the last two years around domestic legislation and legislative initiatives that tries to legalize active defense by exempting it from criminal legislation that outlaw computer crimes or by authorizing the government to engage in such policies. Two prominent examples are the Active Cyber Defense Certainty Bill (ACDC) from 2017 and a planned German hack back bill. My focus in this post is, however, on the legality of such practices under international law.

The question of the legality of active defense measures revolves to a large extent on how the initial attack and the response are qualified under international law rule governing international stats relations and conduct. As is well known, the Tallinn 2.0 Rules define the use of force quite restrictively, mostly requiring physical harm to hardware or to end-point objects and excluding harm to data, and temporary computer dysfunctionality – such as that typically caused by DDOS attacks. Furthermore, an armed attack requires according to the ICJ Nicaragua judgment a use of force of a significant scale and effect, implying that even if physical harm has been caused it can justify response in self-defense in exceptional cases. Add to that the ICJ Wall Opinion and Congo v Uganda judgment, which reject the possibility that non-state actors will be responsible for an armed attack under the Charter – and the fact that many cyber operations appear to be executed by non- state actors. The upshot is that one is left with an almost impossibly high threshold of justifying ‘hack back’ measures as a form of self-defense under international law.

Still, this is not the end of the relevant legal analysis. Cyber operations falling short of use of force, may still be regarded as violation of the principle of state sovereignty if, according to the Tallinn Manual, the operation causes significant harm to the cyber infrastructure in the target state or usurp inherent government functions, including potentially manipulation of elections. This standard does not present a clear threshold of harm, nor is there consensus around the legal status of sovereignty – is it a rule or principle, and whether international law bars operations that do not violate the non-intervention rule, which according to the Nicaragua judgment should feature an element of coercion. Still, if the threshold is crossed – then counter-measures, including counter-cyber operations not amounting to a use of force, may be resorted to – but subject to a number of conditions I will immediately address.

Below the threshold, there seems to be a grey zone of operations that inflict some harm on cyber infrastructure – such as temporary shutdown, data theft, opening a back door or alteration of functionality through malware – without too serious repercussions, which may consequently fall below the level regulated by inter-state rules on cyber operations. In this grey zone, operations – although disruptive of business and other activity – do not clearly violate international law, and as a result do not give rise to the right to apply counter-measures under the laws of state responsibility. At the same time, certain responses – even ‘hack backs’, which remain inside the grey zone do not violate international law either. 

A look at the international laws governing counter-measures renders the picture even more complicated. First, the framework of counter-measures under international rules on state responsibility may allow a counter-cyber operation falling short of the use of force only if it were to meet certain conditions, the most demanding of which is article 52 of the Articles on State Responsibility, which requires a notification and/or call on the state to fulfil its obligations. Clandestine and immediate ‘hack backs’ would clearly not meet this requirement. It is this element that the UK Attorney General identified in his Chatham House speech of 23 May 2018 when he commented that – “In such circumstances, we would not agree that we are always legally obliged to give prior notification to the hostile state before taking countermeasures against it.” Thus, a tension exists between the purpose of the counter-measures under the laws of state responsibility – which is a return to a state of legality – and the potentially retaliatory or escalatory effect of active defense in state practice.

The UK Attorney General did identify also another complicating factor – which is the need by the responding state to be confident about the source of the operation before responding. Indeed, counter-measures can only be applied against the state which has violated international law. This is a challenge due to the well-known problem of attribution of cyber operation, which is created by the use of decoys, anonymous account, slave-computers and the like, which may lead to mistaken identification of the attacking state. One can note that questions related to information about the source of the attack are also key in assessing the proportionality of the counter-measure and in ensuring that it remains below the use of force threshold. For example, taking down a server without knowing what systems and services depend on it, could have unforeseen circumstances - which may run afoul, for instance, with precautionary obligations under IHL and good faith obligations under general international law. This is why automatic ‘hack back’ systems, reacting without meaningful human control or supervision or comparable safeguards – which can be manipulated by decoys and strings of computers – would be highly undesirable and probably unlawful under international law.

Yet, another complication arises from the role of private actors in cyber operations. International law regulates, generally speaking, the conduct of states and IGOs, and through them the conduct of other actors. It is thus for states to ensure that individuals do not abuse their territory to harm the rights and interests of other states, by exercising due diligence over private actors located under their jurisdiction. Hence, in cases involving private individuals, states may be subject to counter-measures only if it is shown that they have failed to meet their due diligence duty to prevent an unlawful cyber-operation.

There is thus another grey zone – the activities of private actors which state could not have reasonably prevented. And the same logic applies in the other direction – the responding state must exercise due diligence to prevent unlawful harms caused by private vigilantes engaged in private ‘hack backs’. The upshot may be that activities that fall short of the harm threshold and/or the reasonable expectations of state vigilance do not implicate the responsibility of the state. But in practical terms it may be very difficult for states to calibrate their supervision so as to prevent only significant harms caused by private actors, especially since the ‘hack backers’’ ability to control harm and identify the right target for response are in themselves fairly limited. Turning a blind eye to any private active defense may as a result violate due diligence standards for the territorial state.

It seems thus that international law provides only limited guidance to states on how to regulate and address active defense – public and private. As indicated before domestic law – criminal law and civil law – may provide some further limits on the activities of hackers and ‘hack backers’. From that perspective, moving to decriminalize ‘hack backs’ may remove an important safeguard against further abuse, and escalation.

Moreover, we are seeing, increasingly, a move towards the development of another layer of norms in international relations – informal norms, which states expect one another to observe, which regard even operations that do not meet the harm threshold – because they involve data theft or temporary loss of functionality – as unfriendly acts, to which they respond through retorsions. That is, acts which do not violate international law but deny states privileges or concessions, such as economic sanctions or below the threshold retaliation.

We have seen in recent years the US respond with open sanctions and perhaps also to covert below the threshold activity to the North Korean attack against Sony Pictures, and with a combination of diplomatic and economic sanctions and criminal investigation to the interference in the 2016 elections. In a paper by Dan Efrony and I, published last year in AJIL, we argued that retorsions constitute the preferable mode of response by states to cyber operations, since it relieves them from the need to make a public attribution case (which may be based on confidential intelligence/undeclared cyber capabilities), and to clarify the legal standards applicable in cyber space.

Such an approach seems to assume that relations between states are based on principles of international law – such as prohibition of use of force, non-intervention and due diligence, and on principles of friendly relations – such as non-interference and cross-border crime prevention, which are based not on legal obligations but on reasonable expectations as to standards of conduct among states.

Active defense measures – which traverse the line between counter-measures (or even use of force in self-defense) and retorsions, depending on the harm inflicted and the degree of state awareness to the active defense action – are governed according to this approach by both formal and informal frameworks. Since in practice states prefer to keep their active defense policies and specific applications thereof below the radar screen, they must deal with it under the informal rules governing acts of retorsion – which in practical terms require limits on the overall harm inflicted and effective control over the act itself or the actor – and include an expectation of proportionality between the harm caused and the level of response resorted to.

Read Less

Facebook's Supreme Court

By: Haim Wismonsky.

Read More

בית-המשפט העליון של פייסבוק

בחודש נובמבר 2018 הודיעה חברת פייסבוק כי בכוונתה להקים ועדה חיצונית ועצמאית לענייני מדיניות התוכן על גבי הפלטפורמה של החברה. מארק צוקרברג, מייסד החברה ומנהלה, הודיע כי הוועדה שתוקם תדון בערעורים על החלטות של החברה בדבר הסרת תוכן, והיא זו שתקבל את ההחלטות הסופיות על עתיד התכנים.[1] צוקרברג כתב כי –

"In the next year, we're planning to create a new way for people to appeal content decisions to an independent body, whose decisions would be transparent and binding. The purpose of this body would be to uphold the principle of giving people a voice while also recognizing the reality of keeping people safe".[2]

על פי הפרסומים, הוועדה תשמש כמעין ערכאת ערעור עליונה על החלטותיה של חברת פייסבוק בנוגע לתכנים שמותרים או אסורים בפרסום על-גבי הפלטפורמה. לאחר שפייסבוק תחליט על הסרתו או אי הסרתו של תוכן מסוים, יוכל המפרסם או המתלונן, שדיווח על הפרסום, לערער על ההחלטה. הערעור ייבחן בידי מנגנונים פנימיים בפייסבוק, ולאחר מתן ההחלטה בערעור, יוכל המפרסם או המתלונן לבקש לערער פעם נוספת מול הוועדה. הוועדה תוכל לשקול באילו פרסומים היא מעוניינת לדון, ובמלים אחרות, לא תקום זכות ערעור בפני הוועדה אלא בקשה למתן רשות ערעור בפניה בלבד. הוועדה תדון אפוא במספר פרסומים מצומצם. דומה הדבר לפרקטיקת הערעורים בפני בית-המשפט העליון הפדראלי בארצות הברית, שדוחה מדי שנה מספר רב של בקשות רשות ערעור, ובוחר בפועל לקיים דיון בעל-פה במספר מצומצם של תיקים מדי שנה (כ-80 בלבד). החלטת הוועדה האם לדון במקרה מסוים אם לאו תהיה שקופה לציבור.[3]

עינינו הרואות, כי פייסבוק החליטה למעשה על הקמת ערכאה מעין-שיפוטית הדומה לבית-משפט עליון של קהילת פייסבוק, ואולי גם של מושפעי פייסבוק, קרי אנשים שמידע על אודותיהם מפורסם בפייסבוק, גם אם אינם משתמשים בפייסבוק בעצמם. מערכת החוקים שעל פיה אותו "בית-משפט עליון" יפסוק היא המערכת של "כללי הקהילה" (Community Standards). הם החוק בפייסבוק. אותו "בית-משפט עליון" יפסוק האם "רשויות אכיפת החוק", קרי מבקרי התוכן בפייסבוק, המטפלים בתלונות או באיתור יזום של תוכן בלתי-הולם על גבי הפלטפורמה, פעלו באופן ראוי. בדומה למערכת היחסים בין הרשות השופטת לרשות המחוקקת, גם כאן "בית-המשפט העליון" של פייסבוק יוכל להשפיע על המחוקק ועל האופן בו מעוצבים ה"חוקים".

בעוד המדינות בוחנות את גישתן בנוגע ל"סמכות" (Jurisdiction) של פייסבוק על משתמשיה, ואת שאלת היחס בין סמכותן לבין סמכותה של פייסבוק,[4] החליטה פייסבוק על מהלך חשוב זה בדרך להפיכת הפלטפורמה ל"מדינת-פייסבוק".

כדי להבין את שורשי התהליך האמור שעובר על פייסבוק, נחזור תחילה לשנת 1993. הרבה לפני שמארק צוקרברג הקים את פייסבוק, כשהאינטרנט היה בחיתוליו, טרום עידן הרשתות החברתיות. הווארד ריינגולד (Rheingold) פרסם באותה שנה את ספרו – "The Virtual Community".[5] הספר הציג את חוויותיו של ריינגולד כמשתתף בקהילת ה-WELL בין השנים 1985-1993. ה-WELL פירושו "Whole Earth 'Lectronic Link" והוא קדם לאינטרנט בתצורתו כ-World Wide Web. ה-WELL פעלה כרשת של ועידות וחילופי מידע באמצעות דואר-אלקטרוני, ובשלב מאוחר יותר הייתה גם רשת של התקשרויות מקוונות. ריינגולד הציע הגדרה רחבה למונח "קהילה וירטואלית", שלפיה כל אימת שנוצר באתר אינטרנט כלשהו דיון ציבורי, ממושך, שבמהלכו מובעים רגשות ומתהווים קשרים בין אישיים בין הגולשים, הרי שלפנינו קהילה וירטואלית.[6] אחד המאפיינים של הקהילה הווירטואלית הוא כי הקהילה פועלת על פי מערך של כללים. כללים אלה נאכפים בידי גורם ממונה או אחראי אשר בסמכותו, לרוב, להסמיך מנהלי משנה או להרחיק אנשים מהקהילה. בכך יכול המנהל ליצור אכיפה בעלת אלמנטים של כפייה בתוך הקהילה. כמו כן, יכולה הקהילה ליישם עקרונות של דמוקרטיה ישירה באמצעות בניית ארכיטקטורה קהילתית של הצבעה ובחירה מקרב חברי הקהילה. בין אם מדובר במערכת היררכית מובנית, או במערכת דמוקרטית, יכולים חברי הקהילה לסבול מסנקציות שונות כמו הרחקה מהקהילה, בּיוש פומבי, הרחקה זמנית מהקהילה, נטילת האפשרות לבצע פעולות מסוימות בתוך הקהילה וכדומה.

נקפוץ בזמן בחזרה מימי קהילת ה-WELL אל ימי הפייסבוק והאינסטגרם. בהתאם להגדרתו הכללית של ריינגולד, פייסבוק יכולה להיתפש כ"קהילת אם", שבתוכה "קהילות בנות" מצומצמות ומהודקות יותר שמאפייניהן חזקים עוד יותר. הכוונה ב"קהילות בנות" היא לקבוצות המתנהלות בתוך פייסבוק. ב"קהילת האם" נוצרים בפייסבוק דיונים ציבוריים, ממושכים, שבהם מובעים רגשות ומתהווים קשרים אישיים בין הגולשים. ב"קהילות הבנות" מתהדקים עוד יותר הקשרים, מוצב רף כניסה וניתנת סמכות הדרה למנהלי הקבוצה, ומשתתפי הקבוצות הללו שותפים לאותה תחושת קרבה ושייכות. מערכת הכללים של "קהילת האם" ממשיכה לחול על ה"קהילות הבנות", ובתוך אותן "קהילות בנות" כללים נוספים.

"קהילת האם" של פייסבוק צמחה כידוע לממדי ענק, ועברה בגודלה את אוכלוסייתן של כל אחת ממדינות העולם. כיום מוערכת קהילת האם של פייסבוק בכ-2.38 מיליארד משתמשים חודשיים. עם הגידול בכמות המשתמשים, והגידול בכמות התכנים שהועלו ושותפו בפייסבוק, באה ההתמסדות המתחייבת. שיאו של תהליך ההתמסדות בתהליך הקמת הוועדה החיצונית, שהלכה למעשה מתפקדת כבית-משפט "קהילתי" – בית-המשפט העליון של פייסבוק.

בינואר 2019 פרסמה פייסבוק להתייחסות הציבור את טיוטת האמנה להקמת הוועדה (אותה כינינו כאן "בית-משפט עליון של פייסבוק"). טיוטה זו כוללת, בין היתר, הצעות להרכב הועדה, דרכי המינוי של חברי הועדה ומאפייניהם, ההליך השיפוטי, שאלות הנוגעות לשקיפות החלטותיה של הוועדה ועוד. בפייסבוק הדגישו כי הטיוטה היא בסיס בלבד לדיון ציבורי רחב יותר על האופן בו הועדה צריכה לפעול.[7] טיוטה זו מציפה שאלות רבות ומורכבות. להמחשה, אמנה כמה מהן: מה יהיה מספר החברים שיתמנו לוועדה (ה"שופטים"), מי אחראי למינוי חברי הוועדה, האם תהליך המינוי של חברי הוועדה יהיה שקוף לציבור, האם ניתן להציע חברים לוועדה, האם נדרש להבטיח ייצוג מינימלי בקרב חברי הוועדה לפי דת, גזע, לאום, מגדר, מיקום גאוגרפי או כדומה, האם תמיד יתכנסו במותב מלא של כלל החברים או שמא יורכבו מותבים מצומצמים יותר, האם יהיה יו"ר לוועדה ("נשיא בית-המשפט העליון"), לכמה שנים ימונו החברים, מי ישלם את שכרם, האם ניתן יהיה להדיחם לפני תום הקדנציה ובאילו תנאים, כיצד יישמעו טיעונים בפני הוועדה (תצהירים? חקירות עדים?), האם קיימת זכות ייצוג בפני הוועדה, כיצד ייבחרו המקרים שיידונו בפני הוועדה, האם החלטות הוועדה ינומקו ויפורסמו לציבור, ועוד.

ברשימה קצרה זו ארחיב מעט על שתי שאלות מהותיות שמתעוררות עם כינונה של הוועדה המדוברת: האחת, שאלת היחס בין החלטותיה של הוועדה לבין סמכותן (Jurisdiction) של המדינות השונות. השנייה, שאלת היחס בין ה"רשות השופטת" של פייסבוק לבין ה"רשות המחוקקת" של החברה. ה"רשות השופטת" מגולמת בוועדה המדוברת, ואילו ה"רשות המחוקקת" מגולמת בדמות הנהלת החברה שקובעת את "כללי הקהילה".

על היחס בין החלטות הוועדה לבין סמכותן של המדינות השונות:

פייסבוק היא פלטפורמה גלובלית שתכניה מגיעים למשתמשים (כמעט) בכל העולם.[8] קיימת שונות ניכרת בין המדינות באשר להגדרה של תוכן אסור על פי חוק. השונות היא בשני מובנים: האחד, ישנם איסורים הקיימים במדינות מסוימות בלבד, בעוד שבמדינות אחרות הם אינם קיימים כלל. כך הוא למשל האיסור על הכחשת השואה, שקבוע בחוקיהן של כמה מדינות, בעוד שבמדינות אחרות – אינו קיים. השני, ישנם איסורים שמפורשים באופן שונה לחלוטין בין מדינה למדינה. כך הוא, למשל, האיסור על פרסומי תועבה, שבמדינה מסוימת יתפרש בצמצום (על תכנים פדופיליים או תכנים הכוללים התעללות בחיות בלבד) ואילו במדינה אחרת יכול שיתפרש בהרחבה (על כל תוכן מיני למשל). מעבר לכך, קיימת שונות בין דיניה של כל אחת מהמדינות לבין "דיניה" הפנימיים של פייסבוק, המגולמים ב"כללי הקהילה" שלה. האופן שבו פייסבוק מפרשת תוכן גזעני, תוכן מיני פסול, תוכן הפוגע בפרטיות וכדומה – שונה מן האופן שבו כל מדינה מפרשת מונחים אלה.

מתקל ה"דינים" בין פייסבוק לבין המדינות השונות הוא בלתי נמנע, ולמעשה מתקיים כבר כיום. על פייסבוק מוטל האתגר הקשה לנסות לגלות רגישות תרבותית מחד גיסא, תוך הימנעות מסחרור לכיוון המכנה המשותף השמרני ביותר מאידך גיסא. כינונו של "בית המשפט העליון של פייסבוק" עשוי להחריף את מתקל הדינים האמור, בפרט על רקע כוונותיה של פייסבוק להחיל את הכרעותיו של אותו "בית משפט" על כל הפלטפורמה של פייסבוק באופן גלובאלי. במלים אחרות, הכרעה של "בית המשפט העליון של פייסבוק" להותיר פרסום מסוים, בהיותו מוגן תחת "כללי הקהילה" של פייסבוק, תחול על כל המדינות, והכרעה הפוכה, להסיר פרסום מסוים בהיותו סותר את "כללי הקהילה" – אף היא תחול על כל המדינות ועל כל המשתמשים.

במקרה של החלטת הסרה גלובאלית – להערכתי, בעתיד הנראה לעין, לא יהיה בכוחה של מדינה מסוימת לכפות על פייסבוק להשיב את הפרסום. אומנם מתנהל שיח מסוים האם אין לראות בפייסבוק משום גוף "דו-מהותי", שניתן להטיל עליו חובות מתחום המשפט המנהלי. על פי גישה זו, לכאורה יוכל בית-משפט לקבוע כי הסרה של תוכן או משתמש מסוים מהפלטפורמה של פייסבוק – נעשתה באופן הפוגע בזכויות מוגנות (חופש עיסוק, במקרה של דף פייסבוק של בית עסק; חופש ביטוי, במקרה של משתמש פרטי), ולפיכך פייסבוק נדרשת להשיב את התוכן או המשתמש לפלטפורמה.[9] כשלעצמי, איני בטוח בכוח הכפייה של בתי-המשפט המדינתיים על פייסבוק להחיל עקרונות של המשפט המנהלי המדינתי על החברה הגלובאלית. להערכתי, הטלת חובות מסוימות על פייסבוק תוכלנה להתבצע, אם בכלל, באמצעות רגולציה בין-לאומית ולא באמצעות רגולציה מדינתית.

במקרה של החלטה על הותרת התוכן על גבי הפלטפורמה של פייסבוק, עשויות המדינות לדרוש הסרה של התוכן מחמת העובדה שהוא מפר את החוק בתחומיהן. או אז תישאל השאלה האם המנגנון האולטימטיבי של האכיפה הקהילתית של פייסבוק יכפיף את עצמו להשפעה החיצונית של המדינות. האם הכשרת הביטוי על-ידי "בית-המשפט העליון של פייסבוק" לא תחייב התעלמות מדרישתה של מדינה ספציפית? לעומת זאת, האם המדינות תסכמנה לאי-כיבוד חוקיהן וצווי בית-המשפט שלהן? אילו התכנים בפייסבוק היו נותרים בגדרי "מדינת פייסבוק" בלבד, ניתן היה להעצים את ההבחנה בין המרחב של פלטפורמת פייסבוק לבין המרחב הפיזי המחולק על פי טריטוריות. אולם, בפועל מתקיים פעפוע בין המרחב המקוון לבין המרחב הפיזי. כך, למשל, פגיעתו של פרסום מסית לאלימות על גבי הפלטפורמה המקוונת מייצר פוטנציאל לפגיעה אלימה במרחב הפיזי.[10] בדומה, פרסום מבזה או משפיל מינית של אדם, המתפרסם במרחב המקוון, מייצר פגיעה ממשית בפרטיות ובכבודו של האדם המצוי במרחב הפיזי.

הדרך ליישב את מתקל הדינים בכיוון זה, שבו "בית-המשפט העליון של פייסבוק" מחליט להותיר את התוכן על כנו, ואילו מדינה אחת או כמה מדינות דורשות להסירו, היא לתפוש את החלטות הוועדה החיצונית ("בית המשפט") כמחייבות במישור הגלובאלי, ואילו את דרישותיהן של המדינות כמחייבות במישור המקומי בלבד. דרישה של המדינה להסיר תוכן מסוים, שהוועדה החליטה להותירו, תוביל את פייסבוק לחסום את הגישה של המשתמשים מאותה מדינה בלבד אל התוכן, כאשר זיהויים של אותם משתמשים ייעשה על פי כתובת ה-IP של המשתמשים (Geo-Blocking). אם כתובת ה-IP תהיה של ספקית גישה לאינטרנט מאותה המדינה – המשתמש ייחסם מלראות את התוכן, ואם המשתמש יתקשר עם שרתי פייסבוק מכתובת IP שאינה מזוהה כמשויכת למדינה האמורה – המשתמש לא ייחסם. יובהר, כי נושא החסימה הלוקאלית (Geo-Blocking) יעבוד רק במקרה שבו הוועדה הורתה על הותרת הפרסום והמדינה סברה כי הפרסום מפר את חוקיה. במקרה הפוך, שבו פייסבוק החליטה להסיר פרסום מסוים מחמת היותו נוגד את כללי הקהילה של החברה, לא תוכל מדינה מסוימת להורות על החזרת התוכן כלפי משתמשים בשטחה בלבד. הגם שפעולה הפוכה זו, של Geo-Showing (הצגה חלקית לפי מיקום גאוגרפי בלבד), אפשרית מבחינה טכנית, היא אינה ראויה שכן משמעותה התערבות מדינתית מופרזת באינטרסים של חברה פרטית זרה. בטווח רחוק, הכרה באפשרות מעין זו תחנוק את עצמאותה של החברה, תפגע באוטונומיה שלה, ובסופו של דבר תצנן חברות אינטרנט רב-לאומיות נוספות המנגישות תכנים או מאפשרות העלאה של תכנים.

על היחס בין החלטות ה"רשות השופטת" של פייסבוק לבין "הרשות המחוקקת" של החברה:

"בית-המשפט העליון של פייסבוק" אמור להיות גוף בלתי-תלוי, שאינו מורכב מאנשי פייסבוק, והוא אמור לפרש את כללי הקהילה של פייסבוק. "בית-המשפט" האמור נוצר ומתפקד מכוח החלטתה של חברת פייסבוק, אולם נשאלת השאלה מה יקרה כאשר בית-המשפט יתנגש עם האינטרסים הכלכליים של חברת פייסבוק? מה יקרה אם בית-המשפט יבקש לבטל "כלל קהילה" מסוים או לפרשו בניגוד לעמדת מנסחיו מחברת פייסבוק?

כיוון שפייסבוק היא, אחרי הכל, חברה פרטית למטרת רווח, קשה לראות מצב שבו האינטרס הכלכלי, בוודאי ככל שהוא יהיה מובהק, ייסוג בפני החלטותיה של אותה ועדה חיצונית. התנגשות אחרת יכולה להיות בין ערכיה של חברת פייסבוק, או ערכיו של מייסדה ומנהלה, מארק צוקרברג, לבין הערכים שיגולמו בהחלטתה של הוועדה. מי יגבר? הבעלים או הוועדה החיצונית? ככל שפייסבוק תחליט להימנע מליישם את החלטת הוועדה החיצונית, עלולה להתעורר שאלת אחריותה המוגברת לנזק שעלול להיגרם כתוצאה מהפרסום שהוועדה פסקה נגדו. במלים אחרות, מבחן עצמאותו של "בית המשפט של פייסבוק" הוא מבחן מורכב, המזכיר במידת מה את סוגיית היחס בין הרשות השופטת לרשות המחוקקת במדינה, הגם שהדנ"א של המדינה אינו זהה לדנ"א של התאגיד. על פניו, הפרדת רשויות שכזאת בתאגיד, בלא שהדבר נכפה על התאגיד בידי רגולטור מדינתי או באמצעות רגולציה בין-לאומית – היא סוגייה תקדימית של ממש, והיא, ללא ספק מבחן אמיתי לפייסבוק, אשר מצד אחד מעוניינת, כך נראה, להוציא מידיה את האחריות הבלעדית לקבלת ההחלטות בתחום מדיניות התוכן, ומצד שני אינה מעוניינת להכפיף עצמה לסמכותו של פוסק חיצוני שישלוט, הלכה למעשה, בעתידה של החברה.

[1] Mark Zuckerberg, A Blueprint for Content Governance and Enforcement, Facebook (Nov. 15, 2018), https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-g....

[2] שם.

[3] Josh Constine, Facebook will pass off content policy appeals to a new independent oversight body, TechCrunch (Nov. 15, 2018), https://techcrunch.com/2018/11/15/facebook-oversight-body.

[4] ניתן למצוא ביטוי למאבק האמור במספר הקשרים. בדין הישראלי, ניתן לציין בהקשר זה את הצעת החוק שזכתה לכינוי "הצעת חוק הפייסבוק", ובשמה המלא: הצעת חוק להסרת תוכן שפרסומו מהווה עבירה מרשת האינטרנט, התשע"ז-2016. הצעת החוק, אשר עברה בקריאה ראשונה בכנסת ביום 2.1.2017, מבקשת להעניק למדינה את הסמכות לפנות בבקשה מתאימה לבית-המשפט, כדי שזה יוציא תחת ידיו צו שיפוטי המורה לחברות אינטרנט כמו פייסבוק או טוויטר להסיר תוכן מסוים אשר מהווה עבירה לפי הדין הישראלי. הצעת חוק בהקשר דומה נכנסה לתוקף בגרמניה ביום 1.10.2017, שם קבע המחוקק הגרמני כי יוטל קנס כבד על פלטפורמות לפרסום תכנים (כמו פייסבוק, יוטיוב או טוויטר) אם אלה לא יסירו במהרה תוכן אשר דווח להן כי הוא מפר את חוק העונשין הגרמני, וראו: Philip Oltermann, "Tough new German law puts tech firms and free speech in spotlight", The Guardian (5.1.2018) https://www.theguardian.com/world/2018/jan/05/tough-new-german-law-puts-tech-firms-and-free-speech-in-spotlight. גם ערכאות שיפוטיות ברחבי העולם התמודדו על השאלה של הסמכות להחליט מהו התוכן אשר יפורסם על-גבי פלטפורמות בין-לאומיות כמו פייסבוק, יוטיוב או טוויטר. בישראל, ידועה פרשת עמוד הפייסבוק בשם "סטטוטים מצייצים", שם קבע בית-המשפט המחוזי כי מפעילי העמוד הפרו את תנאי השימוש של פייסבוק (בכך שפרסמו תוכן עליו קיבלו תשלום מבלי לדווח על כך לציבור המשתמשים), אך לא מדובר בהפרה יסודית ולכן פייסבוק לא הייתה רשאית להסיר את העמוד מבלי לאפשר למפעיליו לתקן את ההפרה שביצעו, ראו ת"א (ת"א) 50870-05-15 לן ואח' נ' Facebook ואח' (פורסם בנבו, 14.12.2017). יוער כי פייסבוק הגישה ערעור על פסק-דין זה לבית-המשפט העליון, שטרם נתן את החלטתו בנושא. בהקשר דומה פסק בית-המשפט הפדראלי העליון של קנדה, ביוני 2017, כי על חברת גוגל להסיר מדף תוצאות החיפוש שלה תוצאות המפנות לאתר אשר מפר את הקניין הרוחני של חברה קנדית, וזאת מכל מנועי החיפוש שגוגל מפעילה ברחבי העולם, ולא רק ממנוע החיפוש שמפעילה חברת גוגל הקנדית (www.google.ca). ראו: Google Inc. v. Equustek Solutions Inc., 2017 SCC 34 (28.6.2017).

[5] Howard Rheingold, The Virtual Community (1993).

[6] שם, בעמ' 25-23.

[7] Nick Clegg, Charting a Course for an Oversight Board for Content Decisions, Facebook Newsroom (Jan. 28, 2019), https://newsroom.fb.com/news/2019/01/oversight-board.

[8] ישנן מספר מדינות אשר חוסמות את הגישה של אזרחיהן לפייסבוק, בין אם באופן קבוע ובין אם לפרקים. כך למשל בסין, וראו: Sherisse Pham and Charles Riley, "Banned! 11 things you won't find in China", CNN (17.3.2017) https://money.cnn.com/gallery/technology/2016/05/23/banned-china-10/4.html; באיראן, וראו: Sheera Frenkel, "Iranian Authorities Block Access to Social Media Tools", The New York Times (2.1.2018) https://www.nytimes.com/2018/01/02/technology/iran-protests-social-media.html; ובצפון קוריאה, וראו: Eric Talmadge, "North Korea announces blocks on Facebook, Twitter and YouTube", The Guardian (1.4.2016) https://www.theguardian.com/world/2016/apr/01/north-korea-announces-blocks-on-facebook-twitter-and-youtube.

[9] ראו למשל את פרשת סטטוסים מצייצים, לעיל ה"ש 5.

[10] מטעם זה הציעה הממשלה לחוקק את הצעת חוק להסרת תוכן שפרסומו מהווה עבירה מרשת האינטרנט, התשע"ז-2016 ("הצעת חוק הפייסבוק"). כאמור, ההצעה נכתבה על רקע ההכרה שהמדינה צריכה לקבל סמכות להורות לחברות האינטרנט להסיר תוכן, העולה כדי עבירה על פי הדין הישראלי, והמסכן את ביטחון המדינה וביטחונו של אדם.

Read Less