February 2019

The (il)Legality of Interference in Elections under International Law

ByAnat Eisenstein Bar-On.

Read More
At the beginning of January 2019, just three months before the upcoming Israeli parliamentary elections, the Director of the ISA (Israel Security Agency – “Shin Bet”) revealed that “[a] foreign country intends to interfere in the coming elections…and it will interfere” through the use of cyber-means. Of course, this is not the first time in the digital era that a certain country has been suspected of interfering in foreign elections. Such allegations arose, inter alia, surrounding the 2015 UK election, the 2016 US Presidential election, the 2017 French election, and the Brexit referendum.

Indeed, foreign election interference is not a new concept in international relations. History shows that states attempted to meddle in foreign elections – mainly in order to change the existing regime – long before cyber became a means to this end. However, we seem to be more anxious when confronted with interference conducted by the use of cyber, perhaps because the accessibility of cyber products, which are found in (almost) every household, has made election interference (among others) easier; or perhaps because of the difficulty in identifying interference assessing its implications on a real-time basis. Regardless of the means used (cyber or other), however, interference in foreign elections poses a genuine threat to democracy, the integrity of the electoral process, and the political independence and stability of states.

Various publications explain that election interference though cyber-means may be undertaken through three main types of operations:

(1) Information operations aimed at collecting personal information or data on a certain candidate or campaign (“phishing”), in order to embarrass and undermine their status and thus influence public opinion. This type of operation targeted the Hillary Clinton Campaign in 2016 and the DNC (Democratic National Committee) server in the US, as well as the 2017 Macron campaign in France.

(2) Influence operations, or “fake news,” designed to disseminate false data or information and mainly used for propaganda and social purposes in order to spread fear and distress. As with informational operations, the goal is to influence public opinion. This type of operation occurred in the US during both the 2016 Presidential election and the 2018 midterm elections, as well as during the Brexit referendum in the UK.

(3) Technical operations aimed at the end-point device (in this case, electronic voting machines) through the use of malware, in order to cause actual changes in the “vote tallies” (as distinct from changes in public opinion). The purpose here is to undermine the voting process and its integrity. Although such operations seem plausible, to date there is no actual proof that technical operations have been implemented in past elections.

On the surface, it appears that when discussing interference in elections, we are essentially dealing with “unauthorized access to information and its subsequent distribution”[1] or espionage.[2] In practice, and as far as we know, states have either abandoned the need for retaliation in response to election interference or dealt with it under domestic criminal law. Nevertheless, while former US Vice-President Richard B. Cheney called the 2016 election interference an “act of war,” and former President Barack Obama stated that the US would “take action…at a time and place of [its] own choosing,” the legality of such practices, from an international law perspective, remains contested, especially when conducted in peacetime. I will focus here mainly on the principles of non-intervention and the prohibition of the use of force. Other aspects of international law may certainly be involved in election interference, such as sovereignty and attribution, but these exceed the scope of this post.

Currently, there is no specific principle of international law applicable to cyberspace in general or to election interference, in particular. Accordingly, we must apply the existing principles of international law and interpret them accordingly.[3] Nonetheless, it would seem that the current legal interpretation and scope of application concerning the relevant legal principles (i.e. non-intervention and the prohibition of the use of force) have no contemporary legal basis and do not provide states with a comprehensive legal solution for cyber threats in the context of election interference. This reality may ultimately undermine the long-term international stability of the legal principle.[4]

The Tallinn Manual,[5] as well as the prevailing legal interpretation,[6] do not construe interference in elections as amounting to an “act of war.” Indeed, it is emphasized that such actions may fall below the bar for the use of force (and particularly the right of self-defense, which requires the even higher threshold of “armed attack”), as stipulated in article 2(4) of the United Nations Charter (“UNC”). Current legal interpretation reflects a narrow approach to the term “force,” excluding all actions that are inherently non-violent.[7] Accordingly, cyber operations are only usually considered to amount to the use of force if they cause physical casualties or damage.[8] Since election interferences lead to neither of the above, they may fall short of the use-of-force level.

Even more clearly, arguably, election interference also fails to meet the non-intervention principle, which is not explicitly mentioned in the UNC[9] but is established in customary international law as “the right of every sovereign State to govern its affairs without outside interference.”[10] The difficulty in applying the non-intervention principle to election interference concerns the “coercive element” – an often elusive component that can be difficult to identify,[11] especially when dealing with election interference.[12] The Tallinn Manual concluded that the non-intervention principle might apply when “using cyber-operations to remotely alter electronic ballots and thereby manipulate an election”.[13] In other words, election interference that does not manipulate the election process per se, but rather seeks to influence (freely) voters’ behavior (e.g. information and influence operations) may not activate this principle.[14]

In order for any legal instrument to endure, it must be adjusted and molded in response to new realities. Therefore, the paradigms of international law should also develop in order to withstand changing times.[15] International law is presumed to be a dynamic legal instrument that can be adjusted and amended over time,[16] And accordingly as warfare changes, so should the existing law[17] – though its “principles…remain intact.”[18] This was also the spirit of the ruling in the Nicaragua v. Costa Rica case, in which the ICJ concluded that “where the treaty has been entered into for a very long period or is ‘of continuing duration,’ the parties must be presumed, as a general rule, to have intended those terms to have an evolving meaning.”[19]

On the basis of the above, I propose two cumulative theories in order to address the issue of the legality of elections interference:

First, we should consider regarding cyberspace as a new operational dimension. This will allow for a more flexible interpretation of cyber terminology and result in fewer cases when legal paradigms cannot be clearly applied and implemented. In other words, the legal principle should be interpreted according to the unique characteristics of each dimension, real and virtual. Instead of the prevailing narrow approach to the use of force prohibition, we could perhaps adopt a non-material approach,[20] so that even virtual operations resulting in non-material outcomes could reach the use-of-force threshold (without requiring physical consequences, such as damages or casualties). Similarly, we might reconsider the concept of coercion, widening the scope of the non-intervention principle in order to ensure that it also applies to elections interference.[21]

Second, we should distinguish between election interference that causes psychological effects and impacts on the electoral process when voters “adopt or change certain behaviors willingly”[22] (i.e. information or influence operations), and forms of interference that cause actual disruption to the essential functions of a state, such as its voting machines (i.e. technical operations), thereby affecting the voting process. Subsequently, we could formulate different levels of operations: while the former operations might activate the non-intervention principle (once the interpretation of “coercion” is expanded), the latter operations might meet the use-of-force threshold, since such actions disrupt functions that are essential and influence the public (in addition to the notion of intervention “in the internal or external affairs of another State”).[23]

Future developments may require us to re-examine these legal conclusions and interpretations. For now, though, these proposed theories offer a sufficient baseline for the legal discussion concerning election interference.

[1] Samuli Haataga, Cyber Attacks and International Law on the Use of Force: The Turn to Information Ethics (Emerging Technologies, Ethics and International Affairs), Routledge – Taylor and Francis Group (2019), 172

[2] Ducan B. Hollis, The Influence of War: The War for Influence (2018), available at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3155273, 11

[3] Ibid (Hollis), 9

[4] Ibid., FN 1 (Haataga), 173

[5] Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations, (Michael N. Schmitt ed.), Cambridge University Press (2nd edition - 2017), 330: Rule 69 - "A cyber operation constitutes a use of force when its scale and effects are comparable to non-cyber operations rising to the level of a use of force"

[6] Ibid., FN 1 (Haataga), 168

[7] Yoram Dinstein, War, Aggression and Self-Defence, Cambridge University Press (6th edition – 2017), 90

[8] Ibid., FN 5 (Tallinn)

[9] Note that article 2(7) of the UNC does not explicitly apply to States; also acknowledged in several UN Resolutions, such as the Declaration on the Inadmissibility of Intervention in the Domestic Affairs of States and the Protection of Their Independence and Sovereignty (A/RES/2131(XX)), 21 December 1965, and the Declaration on Principles of International Law concerning Friendly Relations and Co-operation among States in accordance with the Charter of the United Nations (A/RES/25/2625(XXV)), 24 October 1970; and also mentioned in several International Court of Justice (ICJ) judgments, such as The Corfu Channel case (Merits), Judgment of April 9, 1949, I.C.J Reports 1949; the Military and Paramilitary Activities in and against Nicaragua (Nicaragua v. United States of America), Merits, Judgment. I.C.J. Reports 1986; and Armed Activities on the Territory of the Congo (Democratic Republic of the Congo v. Uganda), Judgment, I.C.J. Reports 2005

[10]Ibid., FN 9 (Nicaragua), para 202

[11] Ibid., FN 2 (Hollis), 10-11

[12] Michael N. Schmitt, Grey Zones in the International Law of Cyberspace, the Yale Journal for International Law, Vol 42:2 (2017), available at https://cpb-us-w2.wpmucdn.com/campuspress.yale.edu/dist/8/1581/files/2017/08/Schmitt_Grey-Areas-in-the-International-Law-of-Cyberspace-1cab8kj.pdf, 2

[13] Ibid., FN 5 (Tallinn), 313

[14] Ibid., FN 2 (Hollis), 11; also see ibid., FN 1 (Haataga), 171-172

[15] Tom Ruys, The Meaning of Force and the Boundaries of the jus as bellum, 108(2) American Journal of International Law 159 (2014), 163; also see, Michael N. Schmitt, The Law of Cyber Warfare: Quo Vadis, 25 Stan. L. & Pol'y Rev. 269 (2014), 271-272

[16] “If law is to remain effective over time, it must be responsive to context”, ibid., 272

[17] Mathew C. Waxman, Cyber-Attacks and the Use of Force: Back to the Future of Article 2(4), 36 Yale J. Int'l L. 421 (2011), 425

[18] Yoram Dinstein, Cyber War and International Law: Concluding Remarks at the 2012 Naval War College International Law Conference, 89 Int’l L. Stud. 276 (2013), 280

[19] Dispute regarding Navigational and Related Rights (Costa Rica v. Nicaragua), Judgment, I.C.J. Reports 2009, para 66

[20] Ibid., FN 1 (Haataga), 171

[21] Ido Kilovaty, Doxfare – Election Hacking as Prohibited Intervention (2017), available at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2945128, 174

[22]Ibid., FN 2 (Hollis), 11

[23] Ibid., FN 5 (Tallinn), 312

Read Less

The Prohibition on the use of Bots During Elections – The Legal Aspect

ByHaim Wismonsky.

Read More

In 2019, around one hundred election campaigns are due to take place around the world, one of which is the election for the 21st Knesset, which is scheduled for 9 April 2019. As we are all well aware, the social media constitute one of the most important arenas for discourse regarding the elections, election propaganda, news reports concerning the elections, and attempts to influence voters’ attitudes by improper means. Those active in this arena include users acting under their true identity, users operating under assumed identities or pseudonyms, as well as a further group of computer-generated users, commonly known as “bots.”

Bots are actually a computer program or algorithm that perform the task they have been instructed to undertake by the programmer in an automated manner.[1] A bot can perform various actions, such as sending a spam message simultaneously to a large number of email addresses;[2] carrying out a distributed denial of service (DDoS) attack in order to flood and shut down a website;[3] and even writing and publishing posts on the social media.[4] Since bots are created by software, they can be replicated on an enormous scale, thereby effectively creating – at a negligible cost – an “army” of bots capable of disseminating false and divisive messages and highlighting messages intended to distort public opinion (even if these contain true content rather than “fake news”). All this takes place without the users being aware of the computerized manipulation underlying the comments.[5] To complete the picture, we should note that bots can, of course, also be used for positive purposes, such as the provision of customer service by means of chatbots that receive information from the customer and provide a tailored response.[6]

In 2016, a Russian company called the Internet Research Agency began to disseminate fake news on a systematic basis in the social media in the United States by means of bots, against the background of the presidential campaign at the time. It is presumed that the goal of these publications was to foment disagreement and create dissension among the readers.[7] This type of attack was intended to create uncertainty and mistrust among the American public, so that readers could not tell whether comments were true or not and whether they were posted by fellow citizens or by an automated computer system operated by a foreign country or other interested party in an attempt to influence discourse.[8] Similar attacks occurred, among other instances, during the referendum in Catalonia;[9] during the Brexit referendum in Britain;[10] and during elections in France,[11] Germany,[12] and Poland.[13]

A study examining Twitter posts during the 10 months preceding the “Brexit” referendum in Great Britain identified 13,493 certain instances of bots that published some 65,000 tweets on the subject in an attempt to influence the discourse. The researchers examined the origins of users who habitually commented on Twitter on the subject of Brexit, and found that of 794,949 users, only 37 percent (300,122) were British users. This raised the question whether foreign players had sought to influence the results of the referendum in Britain, and whether this attempt had included the use of computer-generated accounts, i.e. bots.[14]

Thus we can see that players who seek to influence election campaigns invest considerable efforts in the use of bots to this end; in all probability, these efforts enjoy success. This phenomenon requires a response on several levels: on the technological level (detection and identification capabilities); in public outreach (raising awareness); in the intelligence field; and in the sphere of law and enforcement. In this article, I will seek to concentrate on one aspect of the legal response to this challenge: the criminalization of the use of bots to distort public opinion in the context of election campaigns.

Confronting Bots on the Level of Substantive Law: Specific Legislation or the Application of General Penal Norms?

The phenomenon of the use of bots to influence election campaigns, or more generally – to manipulate information (creating the impression that the information is generated or disseminated by real individuals) – deserves criminalization, insofar as it is liable to exert a tangible influence over the users’ attitudes. The reason for this is that this phenomenon is liable to cause substantial damage to the election campaign, to impair public trust, and even to undermine the legitimacy of elected officials. There can be no doubt that this constitutes a risk on the national level. Given the severity of the risk and of the potential damage, it is certainly appropriate to respond to this phenomenon in the sphere of criminal law.

Two strategies can be mentioned for responding through criminal law to the use of bots to exert improper influence over election campaigns. The first is the creation of a concrete prohibition regarding the systematic use of bots in order to influence users. The second is the application of general penal norms to this specific instance. The advantage of the former strategy is obvious: it relates directly to the improper phenomenon and establishes a clear prohibition that does not include vague margins liable to exert a chilling effect on permitted behaviors. However, this strategy will inevitably be short-lived: it will solve the problem as perceived by today’s legislator, but is liable to leave various technological developments that influence the improper behavior without a solution. The advantage of the latter strategy is that it provides a more open-ended prohibition that can be adapted to future technological developments. Its disadvantage, however, is that the genera offenses will inevitably be phrased and interpreted in an expansive manner, so that they can apply to different technological situations. This will lead to blurred borders and is liable to have a chilling effect on permitted expressions that do not deserve criminalization.

Regarding the former strategy, we may note several legislative initiatives that have sought to create a direct prohibition against the use of bots with the goal of influencing election campaigns. In Ireland, for example, a bill that was first tabled at the beginning of December 2018 is currently being advanced. This bill seeks to prohibit the operation of over 25 virtual entities in an attempt to influence political discourse on an online platform.[15] It is proposed that the penalty for the said offense will be up to five years’ imprisonment or a fine of 10,000 euros.[16] In 2018, a bill was tabled before the US Congress under the title Bot Disclosure and Accountability Act. The proposed law would outlaw the use of automated software intended to influence the opinion of American electors during an election campaign. A similar proposal has also been tabled in California, although in this instance the prohibition is extended to include the use of bots for the purpose of advancing commercial goals relating to the sale of products or services.[17]

Israeli law has adopted the latter strategy. The Israeli penal code does not include specific legislation addressing this issue, and the existing legislation concerning elections makes no reference to the internet.[18] Instead, general computer law is applied to the activities of bots intended to inculcate political messages (whether or not the content of the message is true) and to influence voters’ positions through manipulation. The operation of bots perceived to be real individuals may constitute an offense in accordance with section 3 of the Computers Law, 5755-1995 (hereinafter: “the Computer Law.”) The proper criterion to be applied in distinguishing the activities of bots relates to the question whether or not the bot impersonates a human, rather than the content of the message. This avoids the need to address the level of content, which is inherently connected to the issues of freedom of expression and freedom of access to information. In other words, the proposed examination here focuses on the speaker rather than on what was said; on the identity of the poster rather than on the content of the post.

Section 3 of the Computers Law relates to the transmission and storage of false information and to the execution of actions relating to such information. The section also relates to the writing, transmission, storage or use of software intended for the production of false information. In light of our discussion above, the “false information” that will be examined in light of section 3 of the Computers Law concerns the identification of the publisher rather than the content of the publication. It should be noted that the prosecution policy regarding section 3 of the Computers Law is regulated in State Attorney’s Guideline No. 2.25 from November 2016.[19] The guideline specifies various aggravating circumstances that will tip the scale in favor of prosecution on account of an offense in accordance with section 3 of the Computers Law: The scope and quality of the false information; the possible purposes of use of the false information; the danger inherent in the use of the forged documents; the presence of ancillary offenses alongside the storage of the false information or the software; the level of planning and sophistication; the scope of dissemination of the false information; the extent of the damage caused, or liable to have been caused, due to the transmission or dissemination of the false information; and the intended victim of the offense. The guideline then proceeds to detail typical instances in which, as a general rule, it will be justified to prosecute a person suspected of an offense in accordance with section 3 of the Computers Law. Within the framework of these details of typical cases, the guideline does not discuss our instance. The reason for this, naturally, is that the level of awareness of the use of bots to secure improper influence over election campaigns was insufficient at the time the guideline was published. However, the issue we discuss here is certainly consistent with several of the aggravating circumstances I detailed above. It is apparent that the false information we are discussing is liable to cause substantial damage; that the use of bots entails a high level of planning and sophistication; and that the scope of dissemination of the false information may be substantial.

Alongside the offense in accordance with section 3 of the Computers Law, in cases when a bot impersonates a real person with the goal of deception, this may also constitute the offense of impersonating another, in accordance with section 441 of the Penal Code, 5737-1977. This offense applies when the impersonation is of a real person, and not a false identity, and its main purpose is to protect the person whose identity was stolen. In any case, there is no known phenomenon of the impersonation of real people by means of computer-generated bots, so that in practice it would seem that the improper use of bots will mainly focus on fictitious identities, and accordingly the relevant legal provision will be section 3 of the Computers Law.

Self-Regulation by Internet Companies

The social networks themselves also prohibit the use of bots as part of their conditions of service. Thus, for example, Facebook prohibits entry to the social network by automated means.[20] Twitter also includes a similar wording in its terms of use, prohibiting access and use of information from the social network by automated means.[21] The subject of the use of bots also lends itself to pro-active location efforts by the internet companies, since that it is possible to locate (or to attempt to locate) computerized behavior patterns that operate by means of a given algorithm, without necessarily addressing the content disseminated by the bot.

In practical terms, the pro-active step taken by the internet companies have certainly secured some apparently effective outcomes: Facebook reported a campaign to remove 1.3 billion bots over a period of six months in 2018, while Twitter stated that it had removed 70 million bots in just two months in the same year.[22] At the same time, however, these figures underscore the enormous dissemination of bots on the social media. It is certainly reasonable to assume that not all activities by bots will be located independently by the internet companies. Accordingly, there is also a need to locate, expose, and report networks of bots that operate on their platforms. This activity will be undertaken on the basis of the understanding that such activities constitute an offense in accordance with Israeli law, as well as a violation of the terms of use of the internet companies (or, at least, of most of the social networks and the major internet service providers).[23]

Does the blocking or removal of bots cause undue damage to online freedom of expression? Does it impair the freedom of use of the internet by the users, who may be exposed to computer-generated online content and activities, as well as to content created by humans? Like any other basic right, freedom of expression is granted to humans and not to software. Although behind the computer-generated bots there is a person who enjoys rights, the additional component here is the element of deception. Naturally, freedom of expression does not include the freedom to deceive or defraud others. Moreover, the freedom of expression of the person who lies behind the creation of the bots is not removed – only the manner of its expression in software that is perceived as numerous other individuals (and not the person themselves).


In conclusion, it can be assumed that shortly we will know the extant to which bots have influenced the upcoming election campaign in Israel. It can be hoped that the campaign will take place without the exploitation of the architecture of social networks to secure improper and misleading influence over the elections. If activities such as those described here are indeed discovered and identified, criminal law is ready to address this issue. If the internet companies do not locate and block bots by themselves, it is also proper that the state act to thwart their activities by means of reports to the social networks, based on the fact that these activities constitute an offense in Israeli law, as well as a violation of the terms of service of the leading internet companies.

[1]    For further discussion, see, for example: Bruce Schneier, “Bot Networks,” Schneier on Security (27 July 2006):


[2]    Spam messages or irrelevant or unwanted messages sent over the internet, usually to a large number of users, for the purposes of advertisement, impersonation, the dissemination of malware, and so forth. For further details, see: “Spam,” Oxford Dictionarieshttps://en.oxforddictionaries.com/definition/spam

[3]    The term DDoS refers to a family of attacks intended to shut down a computer system by creating exceptional pressure on its resources. For further discussion, see, for example: “What are DDoS Attacks?” Israel National Cyber Directorate (16 May 2017) (Hebrew):

[4]    Yuen Yiu & Staff Writer, “Battling Online Bots, Trolls and People,” Inside Science (31 August 2018): https://www.insidescience.org/news/battling-online-bots-trolls-and-people

[5]    Ron Shamir and Eli Bechar, “Cyber Attacks on the Election Campaign – How to Respond?” Israel Democracy Institute 136, 36-31 (2019) (Hebrew).

[6]    “Voice assistants” such as Siri and Google Assistant are essentially a type of bot.

[7]    Scott Sane & Mark Mazzetti, “The Plot to Subvert an Election, New York Times (20 September 2018): https://www.nytimes.com/interactive/2018/09/20/us/politics/russia-interference-election-trump-clinton.html

[8]    Jordan Wright & Olabode Anise, “Don’t 2 Me: Hunting Twitter Bots at Scale,” Duo Labs (6 August 2018): https://duo.com/blog/dont-me-hunting-twitter-bots-at-scale; Henry Farrell & Bruce Schneier, “Common Knowledge Attacks on Democracy,” Berkman Klein Center for Internet & Society Research Publication Series (2018), available at: http://henryfarrell.net/wp/wp-content/uploads/2018/11/SSRN-id3273111.pdf

[9]    Ellis Palmer, “Spain Catalonia: Did Russian 'fake news' stir things up,” BBC (18 November 2017): https://www.bbc.com/news/world-europe-41981539

[10]   Matthew Field & Mike Wright, “Russian trolls sent thousands of pro-Leave messages on day of Brexit referendum, Twitter data reveals,” The Telegraph (17 October 2018): https://www.telegraph.co.uk/technology/2018/10/17/russian-iranian-twitter-trolls-sent-10-million-tweets-fake-news

[11]   Mark Hosenball & Joseph Menn, “Experts say automated accounts sharing fake news ahead of French election,” Reuters (21 April 2017): https://www.reuters.com/article/us-france-election-socialmedia/experts-say-automated-accounts-sharing-fake-news-ahead-of-french-election-idUSKBN17M31G

[12]   Andrea Shalal & Eric Auchard, “German election campaign largely unaffected by fake news or bots,” Reuters (22 September 2017): https://www.reuters.com/article/us-germany-election-fake/german-election-campaign-largely-unaffected-by-fake-news-or-bots-idUSKCN1BX258

[13]   “Presidential campaign ‘used bots’, media claim,” Poland In (14 September 2018): https://polandin.com/39005014/presidential-campaign-used-bots-media-claim

[14]   Marco Bastos & Dan Mercea, “The Brexit Botnet and User-Generated Hyperpartisan News,” Social Science Computer Review (2017), available at:


[15]   According to the bill, an “online platform” is defined as a website or application including a social network or search engine that has over 10,000 unique visitors or users in the country. However, if the platform is intended for a local or regional public, it will be considered an “online platform” as defined I the bill even if it has only 1,000 unique visitors or users a month.

[16]   Online Advertising and Social Media (Transparency) Bill 2017, available at https://data.oireachtas.ie/ie/oireachtas/bill/2017/150/eng/initiated/b15017d.pdf

[17]   An act to add Chapter 6 (commencing with Section 17940) to Part 3 of Division 7 of the Business and Professions Code, relating to bots, Cal. Senate Bill no. 1001, available at https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180SB1001

[18]   It should be noted here that following the recommendations of a public committee headed by the former President of the Supreme Court, Justice (Ret.) Dorit Beinish, the Elections Bill (Forms of Propaganda) (Amendment No. 34), 5778-2018 was formulated. The aim of this government bill is to adapt the provisions of the Forms of Propaganda Law to the realities of propaganda in the online domain. However, neither the committee’s report nor the explanatory notes to the bill address the phenomenon of the influencing of elections by means of bots that distribute information on the internet and in the social media. It should also be noted that the previous head of the Central Elections Committee, Justice (Ret.) Salim Joubran, already noted in GEC 8/20 Likud Movement v Israel Labor Party (22 February 2015) that the provisions in the Forms of Propaganda Law may be applied to the online domain. This position is shared by the current Attorney General, as was presented in GEC 8/21 Ben Meir v Likud (unpublished). However, these cases do not discuss the issue before us here.

[19]   “Policy on Prosecution for an Offense in Accordance with Section 3 of the Computers Law – “False Information” or “False Output,” State Attorney’s Guidelines 2.25 (November 2016).

[20]   For further discussion, see: “Facebook’s Terms of Service,” Facebook (19 April 2018): https://www.facebook.com/legal/terms

[21]   “Twitter Terms of Service,” Twitter (25 May 2018): https://twitter.com/en/tos#intlTerms.

[22]   Yoel Roth & Del Harvey, “How Twitter is fighting spam and malicious automation,” Twitter Blog (26 June 2018): https://blog.twitter.com/en_us/topics/company/2018/how-twitter-is-fighting-spam-and-malicious-automation.html;Craig Timberg and Elizabeth Dwoskin, “Twitter is sweeping out fake accounts like never before, putting user growth at risk,” The Washington Post (6 July 2018):

      https://www.washingtonpost.com/technology/2018/07/06/twitter-is-sweeping-out-fake-accounts-like-never-before-putting-user-growth-risk/?noredirect=on&utm_term=.cf8aecb98cb5;Kurt Wagner & Rani Molla, “Facebook has disabled almost 1.3 billion fake accounts over the past six months,” Recode (15 May 2018): https://www.recode.net/2018/5/15/17349790/facebook-mark-zuckerberg-fake-accounts-content-policy-update

[23]   For further discussion of state actions, see: Haim Wismonsky, “Alternative Enforcement of Offenses of Expression in the Cyber Domain,” Just Law? The Criminal Process in Israel – Defects and Challenges (ed. Alon Harel), 2017, 691, 716-717 (Hebrew).


האיסור על שימוש בבּוֹטים במהלך מערכת בחירות – ההיבט המשפטי/חיים ויסמונסקי[1]

בשנת 2019 צפויות כ-100 מערכות בחירות ברחבי העולם, אחת מהן היא מערכת הבחירות הכלליות לכנסת ה-21 העתידה להתקיים ב-9.4.2019. כידוע לכל, אחת הזירות המרכזיות לשיח על הבחירות, לתעמולת בחירות, לדיווחים חדשותיים הנוגעים לבחירות, וכן לניסיונות להשפעה פסולה על עמדות הבוחרים – היא הזירה של הרשתות החברתיות. בתוך זירה זו פועלים משתמשים בזהות אמיתית, משתמשים נוספים בזהות בדויה או פסבדונימית, וכן קבוצה נוספת של משתמשים יצירי-מחשב, המכונים בּוֹטים (Bots).

בּוטים הם תוכנת מחשב, אלגוריתם, המבצעים משימה שהונחו לעשותה על-ידי מתכנת באופן אוטומטי.[2] בּוׂט יכול לבצע פעולות שונות, כגון שליחת הודעות ספאם למספר רב של כתובות מייל בו-זמנית,[3] לבצע מתקפת מניעת שירות מבוזרת על מנת להציף אתר אינטרנט ולהשביתו,[4] ואף לכתוב פּוֹסטים ולפרסם אותם ברשתות החברתיות.[5] כיוון שבּוׂטים הם יצירי-תוכנה, הרי שניתן לשכפלם בהיקפים עצומים ולייצר למעשה, בעלות זניחה, "צבא" של בוטים שיוכלו להפיץ מסרים כוזבים, מעוררי מחלוקת, להדהד מסרים שנועדו להטות את דעת הקהל (גם אם הם כוללים תוכן אמיתי ולא "חדשות מזויפות"), כל זאת מבלי שקהל המשתמשים יהיה מודע למניפולציה הממוחשבת שעומדת מאחורי הדברים.[6]להשלמת התמונה יצוין כי בוטים יכולים כמובן לבצע משימות חיובית, כגון משימות של שירות לקוחות באמצעות Chatbots שמקבלים מידע מלקוח ומספקים לו מענה לצרכיו.[7]

בשנת 2016, חברה רוסית בשם "The Internet Research Agency" החלה להפיץ חדשות כזב (fake news) באופן שיטתי ברשתות החברתיות בארצות הברית באמצעות בּוׂטים וזאת על רקע מערכת הבחירות לנשיאות ארצות-הברית. על פי ההערכות, מטרת הפרסומים הייתה לעורר מחלוקות, וליצור פילוג בין הקוראים.[8] מתקפה מסוג זה נועדה ליצור בקרב הציבור האמריקני אי-ודאות וחוסר אמון, כאשר הקורא אינו יודע האם הפרסומים אמיתיים והאם מי שפרסם אותם הוא אזרח כמוהם, תוכנת מחשב אוטומטית המופעלת בידי מדינה זרה או גורם אחר בעל אינטרס, המנסה להשפיע על השיח.[9] מתקפות דומות התרחשו, בין היתר, בקטלוניה במהלך משאל העם,[10] במהלך משאל הברקזיט בבריטניה,[11] בבחירות בצרפת,[12] בגרמניה,[13] ובפולין.[14]

ממחקר שבחן פרסומים בטוויטר במהלך 10 חודשים סביב משאל העם בבריטניה בנוגע לפרישתה מהאיחוד האירופי (הברקזיט), זוהו בוודאות 13,493 בּוֹטים בטוויטר שפרסמו כ-65,000 פרסומים בנושא הברקזיט, תוך ניסיון להשפיע על השיח. החוקרים בדקו מהו מקורם של משתמשים שנהגו לפרסם בטוויטר בנושא הברקזיט ומצאו שמתוך 794,949 משתמשים, רק 37% (30,122) היו משתמשים אנגלים, ולכן הועלתה השאלה האם היה ניסיון של גורמים זרים להשפיע על תוצאות משאל העם בבריטניה, והאם ניסיון זה כלל שימוש בחשבונות משתמש יצירי מחשב, קרי בּוֹטים.[15]

עינינו הרואות אפוא כי תופעת השימוש בבוטים לצורך השפעה פסולה על עמדות הציבור במהלך מערכות הבחירות היא תופעה שמושקעים בה מאמצים רבים מצד הגורמים המבקשים להשפיע על מערכות הבחירות, וככל הנראה מאמצים אלה נושאים פירות. תופעה זו מחייבת היערכות במגוון מישורים: במישור הטכנולוגי (יכולת גילוי וזיהוי), במישור ההסברתי (העלאת מודעות), במישור המודיעיני, וכן במישור המשפטי ובמישור האכיפה. במסגרת רשימה זו אבקש להאיר אספקט אחד של ההתמודדות במישור המשפטי, וזהו ההיבט של הפללת השימוש בבוטים על מנת להטות את דעת הקהל בהקשר של מערכת הבחירות.

ההתמודדות עם בוטים במישור הדין המהותי – חקיקה ספציפית או החלת נורמות עונשיות כלליות

תופעת השימוש בבוטים לצורך השפעה על מערכות בחירות, או ביתר כלליות – לצורך יצירת מניפולציות במידע (כאילו המידע נוצר או מופץ בידי אנשים אמיתיים) – ראויה להפללה, ככל שיש בה כדי להשפיע באופן ממשי על עמדות קהל המשתמשים. זאת כיוון שתופעה זו עלולה להסב נזק רב למערכת הבחירות, לפגוע באמון הציבור ואף לערער את הלגיטימיות של נבחרי הציבור. אין ספק שמדובר בסיכון ברמה הלאומית. בשים לב לעוצמת הסיכון ופוטנציאל הנזק – אין ספק שיש מקום להתמודדות במישור של המשפט הפלילי.

ניתן להצביע על שתי אסטרטגיות להתמודדות במישור הפלילי עם השימוש בבוטים לצורך השפעה פסולה על מערכת הבחירות: האחת, יצירת איסור קונקרטי המתייחס לשימוש בבוטים באופן שיטתי כדי להשפיע על המשתמשים. השנייה, החלת נורמות עונשיות כלליות על הסיטואציה הנדונה. האסטרטגיה הראשונה – יתרונה ברור. היא מתייחסת במישרין לתופעה הפסולה, קובעת איסור מפורש יותר שאינו כולל שולי עמימות רחבים שיש בהם כדי לצנן התנהגויות מותרות. עם זאת, אסטרטגיה זו לעולם תלקה בקוצר-רואי, במובן זה שהיא תפתור את הבעיה כפי שהיא נראית בעיני המחוקק דהיום, בעוד שהתפתחויות טכנולוגיות שונות שישפיעו על אופן ביצוע ההתנהגות הפסולה – עלולות להיות בלתי-מטופלות. האסטרטגיה השנייה – יתרונה בכך שהיא תכלול איסור שהוא "רקמה פתוחה" יותר, שיוכל להיות מותאם להתפתחויות טכנולוגיות עתידיות. אולם, החיסרון הוא שהעברות בעלות האופי הכללי תהיינה בהכרח מנוסחות ומפורשות באופן מרחיב, על מנת שתוכלנה לחלוש על הסיטואציות הטכנולוגיות השונות, מה שיוביל לעמעום גבולותיהן, דבר העלול ליצור אפקט מצנן על ביטויים מותרים שאינם ראויים להפללה.

בכל הנוגע לאסטרטגיה הראשונה, ניתן לציין כמה מהלכי חקיקה שביקשו להתייחס במישרין לאיסור על שימוש בבוטים במטרה להשפיע על מערכת הבחירות. כך, למשל, באירלנד מקודמת הצעת חוק, שהוצגה בתחילת דצמבר 2018, המבקשת לאסור על הפעלה של למעלה מ-25 ישויות וירטואליות בניסיון להשפיע על השיח הפוליטי באמצעותן בפלטפורמה מקוונת.[16] על פי ההצעה, העונש על העברה האמורה יהיה עד חמש שנות מאסר או קנס של 10,000 אירו.[17] כמו כן, בקונגרס האמריקני הוגשה במהלך שנת 2018 הצעת חוק, המכונה ה-Bot Disclosure and Accountability Act. על פי ההצעה, ייאסר השימוש בתוכנה אוטומטית שמטרתה להשפיע על דעתו של הבוחר האמריקני במהלך תקופת בחירות. הצעה ברוח דומה הוגשה גם במדינת קליפורניה, אם כי שם האיסור מוחל גם על שימוש בבוטים לצורך קידום מטרות מסחריות של מכירת מוצרים או שירותים.[18]

הדין הישראלי נוקט באסטרטגיה השנייה. אין בדין הישראלי חקיקה ספציפית המתייחסת לסוגייה הנדונה, ולמעשה חקיקת הבחירות הקיימת כיום כלל אינה מתייחסת למרחב האינטרנטי.[19] תחת זאת, דיני המחשבים הכלליים מוחלים על פעילות של בּוטים שנועדו להדהד מסרים פוליטיים (בין אם תוכן כוזב ובין אם תוכן שאינו כוזב), ולהשפיע על עמדות הבוחרים בדרך של מניפולציה. הפעלת בּוׂטים הנחזים להיות אדם אמיתי עשויה לעלות כדי עברה על סעיף 3 לחוק המחשבים, התשנ"ה-1995 (להלן: "חוק המחשבים"). התבחין הראוי לבחינת פעילותם של הבּוטים הוא לפי השאלה האם הבּוֹט מתחזה לאדם ולא לפי תוכן הדברים. בכך, נמנע הצורך לעסוק ברובד התוכן, שמטבע הדברים קשור במישרין בסוגיות של חופש הביטוי וחופש הגישה למידע. במלים אחרות, ההתבוננות המוצעת כאן מתמקדת ברובד של הדובר ולא ברובד של הדברים; בזהות המפרסם ולא בתוכנו של הפרסום.

סעיף 3 לחוק המחשבים מתייחס הן להעברת מידע כוזב, הן לאחסונו והן לביצוע פעולות לגביו. כמו כן, מתייחס הסעיף לכתיבת תוכנה, העברתה, אחסונה או שימוש בה, והכל כאשר מטרתה לייצר מידע כוזב. לנוכח הדברים שציינתי לעיל, ה"מידע הכוזב" שייבחן לאורו של סעיף 3 לחוק המחשבים הוא בנוגע למיהותו של המפרסם ולא בנוגע לתוכן הפרסום. מן הראוי לציין שמדיניות ההעמדה לדין בעברה על סעיף 3 לחוק המחשבים מוסדרת בהנחיית פרקליט המדינה מספר 2.25 מנובמבר 2016.[20] ההנחיה מפרטת מגוון נסיבות מחמירות שיטו את הכף לכיוון העמדה לדין בגין העברה על סעיף 3 לחוק המחשבים: היקף המידע הכוזב וטיבו, מטרות השימוש האפשריות במידע הכוזב, הסיכון הטמון בשימוש במסמכים המזויפים, קיומן של עברות נלוות לעצם האחסון של המידע או התוכנה הכוזבת, מידת התכנון והתחכום, היקף תפוצת המידע הכוזב, מידת הנזק שנגרם או עלול היה להיגרם כתוצאה מהעברת המידע הכוזב או הפצתו וקורבן העבירה המיועד. בהמשך, ההנחיה מפרטת מקרים טיפוסיים בהם, ככלל, תקום הצדקה להעמיד לדין חשוד בעברה על סעיף 3 לחוק המחשבים. במסגרת פירוט המקרים הטיפוסיים, ההנחיה אינה מתייחסת למקרה שלפנינו. זאת, מטבע הדברים, לנוכח העובדה שהמודעות לשימוש בבוטים לצורך השפעה פסולה על מערכות בחירות – לא הייתה קיימת די הצורך במועד פרסומה של ההנחיה. עם זאת, הסוגיה דנן בהחלט הולמת חלק מהנסיבות המחמירות שפירטתי לעיל: ברי כי המידע הכוזב בו מדובר עלול להסב נזק רב; כי השימוש בבוטים מגלם מידה גבוהה של תכנון ותחכום; וכי היקף תפוצתו של המידע הכוזב עשוי להיות ניכר.

לצד העברה על סעיף 3 לחוק המחשבים, ברי כי במקרה שבו שבּוֹט יתחזה לאדם אמיתי, במטרה להונות, ייתכן והדבר יעלה גם כדי עברה של התחזות כאחר, עברה על סעיף 441 לחוק העונשין, התשל"ז-1977. עברה זו חלה כאשר ההתחזות היא לאדם אמיתי, ולא לאדם שזהותו בדויה ותכליתה המרכזית היא להגן על האדם שזהותו נגנבת. על כל פנים, לא ידוע על תופעה של התחזות לאנשים אמיתיים באמצעות בּוֹטים יצירי-מחשב, ועל כן בפועל נראה כי עיקר השימוש הפסול בבוטים יתמקד בזהויות בדויות, ועל כן סעיף החוק הרלוונטי יהיה סעיף 3 לחוק המחשבים.

הסדרה עצמית של חברות האינטרנט

הרשתות החברתיות עצמן אוסרות גם הן על שימוש בבּוׂטים כחלק מתנאי השימוש. כך, למשל, חברת פייסבוק (Facebook) אוסרת על כניסה לרשת החברתית באמצעות אמצעים אוטומטיים.[21]

גם טוויטר משתמשת בניסוח דומה בתנאי השימוש שלה ואוסרת על קבלת גישה ואיסוף מידע מהרשת החברתית על ידי אמצעים אוטומטיים.[22] נושא השימוש בבּוֹטים מתאים, על פי טיבו, גם לפעילות איתור פרו-אקטיבית של חברות האינטרנט, כיוון שניתן (לנסות) לאתר מדפסי התנהגות ממוחשבים, הפועלים על פי אלגוריתם מסוים, וזאת מבלי להתייחס בהכרח לתוכן שמופץ בידי אותו בּוֹט.

בפועל, פעילותן הפרו-אקטיבית של חלק מחברות האינטרנט הניבה תוצאות שמצד אחד נתפשות כיעילות (פייסבוק דיווחה על מבצע להרחקת 1.3 מיליארד בּוֹטים במשך 6 חודשים במהלך שנת 2018, ואילו טוויטר דיווחה כי הרחיקה 70 מיליון בּוֹטים במשך חודשיים בלבד בשנת 2018),[23] אולם בה בעת הן מלמדות על תפוצתם העצומה של הבּוׂטים ברשתות החברתיות. בהחלט סביר להניח שלא כל פעילות הבוטים תאותר באופן עצמאי בידי חברות האינטרנט, ועל כן נדרשת גם פעילות מדינתית לאיתור, חשיפה ודיווח על רשתות של בוטים הפועלים על גבי הפלטפורמות של חברות האינטרנט. פעילות זו תתבצע על סמך ההבנה שמדובר בעברה על החוק הישראלי, כמו גם הפרה של תנאי השימוש (Terms of use) של חברות האינטרנט (לפחות של מרבית הרשתות החברתיות וספקיות השירות הגדולות).[24]

האם חסימה או הרחקה של בוטים פוגעת באופן בלתי-ראוי בחופש הביטוי ברשת? האם היא פוגעת בחופש השימוש ברשת מצד המשתמשים, שיכולים להיחשף גם לתכנים ולפעילות רשתית יצירת מחשב, ולא רק יצירת אדם? לכך ניתן להשיב בשלילה. חופש הביטוי, ככל זכות יסוד, נמסר לאנשים ולא לתוכנות. אומנם מאחורי הבוטים, יצירי המחשב, עומד אדם נשא-זכויות, אולם כאן נוסף המרכיב הנוסף והוא מרכיב ההטעיה. מטבע הדברים, חופש הביטוי אינו החופש להטעות או להונות. יתרה מכך, חופש הביטוי של האדם עצמו, העומד מאחורי יצירת הבוטים, לא נשלל, אלא רק אופן הביטוי, דרך תוכנות מחשב הנחזות להיות אנשים רבים אחרים (שאינם האדם עצמו).

* * *

לסיכום, ניתן להניח שבקרוב נדע מה מידת השפעתם של בּוֹטים על מערכת הבחירות הקרבה בישראל. יש לקוות שהמערכת תתנהל ללא ניצול לרעה של הארכיטקטורה של הרשתות החברתיות על מנת להשפיע באופן פסול ומטעה על מערכת הבחירות. ככל שאכן תתגלה ותזוהה פעילות כאמור, הדין הפלילי ערוך לטיפול בה, ואף נכון כי במקרה שחברות האינטרנט לא תאתרנה ותחסומנה את הבּוטים בעצמן, המדינה תפעל לסיכול פעילותם בדרך של דיווחים לרשתות החברתיות, על סמך העובדה שמדובר בעברה על הדין הישראלי, ובה בעת מדובר בהפרה של תנאי השימוש של חברות האינטרנט המוכרות.

[1] דוקטור למשפטים, מנהל מחלקת הסייבר בפרקליטות המדינה, עמית מחקר במרכז הסייבר באוניברסיטה העברית. הדברים משקפים את עמדתו האישית של הכותב בלבד. תודתי למאי הר שי על הסיוע באיסוף החומרים לרשימה זו.

[2] להרחבה ראו למשל Bruce Schneier, Bot Networks, Schneier on Security (27.7.2006)https://www.schneier.com/blog/archives/2006/07/bot_networks.html.

[3] הודעות ספאם (Spam) הן הודעות לא-רלוונטיות או בלתי-רצויות שנשלחו דרך האינטרנט, בדרך כל למספר גדול של משתמשים, למטרות פרסום, התחזות, הפצת תוכנות זדוניות ועוד. ראו להרחבה: "Spam" Oxford Dictionaries, https://en.oxforddictionaries.com/definition/spam.

[4] מתקפות מניעת שירות מבוזרות (DDoS - Distributed Denial of Service) הן משפחת תקיפות שנועדה להשבית מערכת מחשב על ידי יצירת עומס חריג על משאביה. להרחבה ראו למשל: מערך הסייבר הלאומי "מהן מתקפות מניעת שירות מבוזרות (DDoS)" מערך הסייבר הלאומי (16.5.2017):https://www.gov.il/he/departments/publications/reports/ddos.

[5] Yuen Yiu & Staff Writer, Battling Online Bots, Trolls and PeopleInside Science (31.8.2018) https://www.insidescience.org/news/battling-online-bots-trolls-and-people.

[6] רון שמיר ואלי בכר "התקפות סייבר על מערכת הבחירות – איך מתמודדים?" המכון הישראלי לדמוקרטיה – מחקר מדיניות 136, 36-31 (2019).

[7] למעשה, גם "עוזרות קוליות" כ-Siri או Google Assistant הן סוג של Chatbots.

[8] Scott Sane & Mark Mazzetti, The Plot to Subvert an Election, The New York Times (20.9.2018)https://www.nytimes.com/interactive/2018/09/20/us/politics/russia-interference-election-trump-clinton.html.

[9] Jordan wright & Olabode Anise, Don't 2 Me: Hunting Twitter Bots at Scale, Duo Labs (6.8.2018) https://duo.com/blog/dont-me-hunting-twitter-bots-at-scale; Henry Farrell & Bruce Schneier, Common Knowledge Attacks on Democracy The Berkman Klein Center for Internet & Society research Publication Series (2018), available at http://henryfarrell.net/wp/wp-content/uploads/2018/11/SSRN-id3273111.pdf.

[10] Ellis Palmer, Spain Catalonia: Did Russian 'fake news' stir things upBBC (18.11.2017) https://www.bbc.com/news/world-europe-41981539.

[11] Matthew Field & Mike Wright, Russian trolls sent thousands of pro-Leave messages on day of Brexit referendum, Twitter data revealsThe Telegraph (17.10.2018) https://www.telegraph.co.uk/technology/2018/10/17/russian-iranian-twitter-trolls-sent-10-million-tweets-fake-news/.

[12] Mark Hosenball & Joseph Menn, Experts say automated accounts sharing fake news ahead of French electionReuters (21.4.2017)https://www.reuters.com/article/us-france-election-socialmedia/experts-say-automated-accounts-sharing-fake-news-ahead-of-french-election-idUSKBN17M31G.

[13] Andrea Shalal & Eric Auchard, German election campaign largely unaffected by fake news or botsReuters (22.9.2017)https://www.reuters.com/article/us-germany-election-fake/german-election-campaign-largely-unaffected-by-fake-news-or-bots-idUSKCN1BX258.

[14] Presidential campaign ‘used bots’, media claimPoland In (14.9.2018) https://polandin.com/39005014/presidential-campaign-used-bots-media-claim.

[15] Marco Bastos & Dan Mercea, The Brexit Botnet and User-Generated Hyperpartisan NewsSocial Science Computer Review (2017), available athttps://journals.sagepub.com/doi/pdf/10.1177/0894439317734157.

[16] על-פי הצעת החוק, "פלטפורמה מקוונת" היא אתר אינטרנט או יישומון, הכולל רשת חברתית או מנוע חיפוש, בהם מבקרים או משתמשים ייחודיים למעלה מ-10,000 איש במדינה. עם זאת, ככל שהפלטפורמה פונה לקהל מקומי או אזורי, היא תיחשב ל"פלטפורמה מקוונת" כהגדרתה בהצעת החוק, אף אם מבקרים בה 1,000 משתמשים או מבקרים ייחודיים בלבד מדי חודש.

[17] Online Advertising and Social Media (Transparency) Bill 2017, available athttps://data.oireachtas.ie/ie/oireachtas/bill/2017/150/eng/initiated/b15017d.pdf.

[18] ראו: An act to add Chapter 6 (commencing with Section 17940) to Part 3 of Division 7 of the Business and Professions Code, relating to bots, Cal. Senate Bill no. 1001, available at https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180SB1001..

[19] כאן המקום לציין כי בעקבות המלצותיה של ועדה ציבורית בראשות נשיאת בית המשפט העליון לשעבר, השופטת (בדימ.) דורית ביניש, גובשה הצעת חוק הבחירות (דרכי תעמולה) (תיקון מס' 34), התשע"ח-2018. מטרתה של הצעת חוק ממשלתית זו היא להתאים את הוראות חוק דרכי התעמולה למציאות של תעמולת בחירות במרחב המקוון. עם זאת, הן בדו"ח הוועדה והן בדברי ההסבר להצעת החוק אין התייחסות לתופעה של השפעה על בחירות באמצעות בוטים המפיצים מידע באינטרנט וברשתות החברתיות. יצוין עוד שיו"ר ועדת הבחירות המרכזית הקודם, כב' השופט (בדימ.) סלים ג'ובראן כבר פסק בתב"כ 8/20 תנועת הליכוד נ' מפלגת העבודה הישראלית (22.2.2015), כי ניתן להחיל הוראות מחוק דרכי תעמולה על המרחב המקוון , וזו אף עמדתו של היועץ המשפטי לממשלה הנוכחי, כפי שהוצגה בתב"כ 8/21 בן מאיר נ' הליכוד (טרם פורסם), אולם אין הם מתייחסים לסוגיה שלפנינו.

[20] "מדיניות העמדה לדין על עבירה לפי סעיף 3 לחוק המחשבים – "מידע כוזב" או "פלט כוזב" הנחיית פרקליט המדינה 2.25 (נובמבר 2016).

[21] להרחבה ראו Facebook's Terms of ServiceFacebook (19.4.2018) https://www.facebook.com/legal/terms.

[22] Twitter Terms of ServiceTwitter (25.5.2018) https://twitter.com/en/tos#intlTerms.

[23] Yoel Roth & Del Harvey, How Twitter is fighting spam and malicious automationTwitter Blog (26.6.2018)https://blog.twitter.com/en_us/topics/company/2018/how-twitter-is-fighting-spam-and-malicious-automation.html; Craig Timberg and Elizabeth Dwoskin, Twitter is sweeping out fake accounts like never before, putting user growth at riskThe Washington Post (6.7.2018) https://www.washingtonpost.com/technology/2018/07/06/twitter-is-sweeping-out-fake-accounts-like-never-before-putting-user-growth-risk/?noredirect=on&utm_term=.cf8aecb98cb5; Kurt Wagner & Rani Molla, Facebook has disabled almost 1.3 billion fake accounts over the past six monthsRecode (15.5.2018) https://www.recode.net/2018/5/15/17349790/facebook-mark-zuckerberg-fake-accounts-content-policy-update.

[24] להרחבה על פעילות מדינתית חיים ויסמונסקי "אכיפה אלטרנטיבית של עברות יבטוי במרחב הסייבר" משפט צדק? ההליך הפלילי בישראל – כשלים ואתגרים 691, 717-716 (אלון הראל עורך, 2017).


Read Less