Delete Facebook

This is becoming a bit of a tradition: me writing about people who make a New Year’s resolution to quit Facebook. The story is simple: around the turn of the year, there’s a peak in people googling how to quit smoking, but there’s an even larger peak in people trying to figure out how to delete their Facebook account.

But this year, the story is a bit more complicated (and more interesting).

Google Trends data isn’t available yet for the last days of the year, so there’s no new peak in searches for “quit smoking” yet. Other than that, the yearly pattern is dwarfed by a huge peak in search volume for “delete Facebook” in the week starting on 18 March. What happened?

The Guardian has helpfully created an overview of Facebook-related incidents during 2018; I’ve added a few stories that also seemed relevant (for sources, see Method below; thanks to Vicki Boykis for the suggestion to annotate the Google Trends chart).

No surprise: the largest peak in “delete Facebook” searches happened a few days after the publication of the Cambridge Analytica story on 17 March. The news resulted in a veritable #deletefacebook campaign, although according to Mark Zuckerberg, «I don’t think we’ve seen a meaningful number of people act on that.»

Arwa Mahdawi has argued that deleting your Facebook account isn’t a bad New Year’s resolution, even though it probably won’t change how the company operates: «Facebook’s abuse of power isn’t a problem that we can solve as individuals. Technology giants must be regulated.»

So how much impact did the controversy have on Facebook? One way to try and answer this is to look at the share price.

The pattern for Facebook is rather interesting. The share price dropped after the publication of the Cambridge Analytica story, but quickly picked up again. But then it took a plunge on 25 July, resulting in ‘the biggest-ever one-day wipeout in U.S. stockmarket history’.

One possible interpretation is that investors initially thought the Cambridge Analytica story wasn’t going to harm Facebook’s profits. But when Facebook published its Q2 earnings report, they were shocked to learn that user growth had stalled.

But the chart also shows that all major tech companies saw their share prices go down. This suggests there’s more going on than users leaving Facebook. In addition to broader economic trends, a likely explanation is that investors fear more government regulation of major tech companies in response to the controversies they are involved in (and also to their dominant market position). While this may not be the whole story, it does seem to support Mahdawi’s view about the key role of regulation.


Note that Google Trends data should be interpreted with caution because Google doesn’t provide much detail on the methodology used to produce the data.

For periods longer than three months, only weekly data can be downloaded. For the 2018 chart I wanted daily data. As suggested here, I downloaded three-month batches with overlapping data and then used the overlapping dates to calculate a ratio to adjust the scales. Here’s the code:

import pandas as pd
import numpy as np
def stitch(df1, df2):
    df1.index =
    df2.index =
    overlapping = [d for d in if d in list(]
    ratios = [df1.loc[d, 'delete facebook'] /
              df2.loc[d, 'delete facebook']
              for d in overlapping]
    ratio = np.median(ratios)
    for var in ['delete facebook', 'quit smoking']:
        df2[var] *= ratio
    df = pd.concat([df1, df2[]])
    return df
df = dfs[0]
for df2 in dfs[1:]:
    df = stitch(df, df2)

I used this Guardian article as my main source on Facebook-related incidents in 2018. I added a few from other sources: in April, Facebook announced 87 million people had been affected by the Cambridge Analytica scandal. Subsequently, it announced that it would notify people who had been affected. Dutch comedian Arjen Lubach organised a Bye Bye Facebook event (reminiscent of the 2015 Facebook Farewell Party). In September, Pew found that one in four Americans had deleted the Facebook app from their phone; and later that month a Chinese hacker threatened to delete Mark Zuckerberg’s Facebook account.

Trust instead of algorithms

UPDATE 11 March 2019 - A survey by Dutch trade union FNV found that 25% of participating municipalities apply algorithms to personal data to label welfare recipients as potential frauds. 9% said they hire a commercial organisation to do the analysis. FNV’s vice president Kitty Jong condemned the practice.

A number of Dutch cities have contracted a company named Totta data lab to predict which welfare recipients may have committed fraud (the cities were somewhat secretive about this approach, but newspaper NRC wrote about it last spring). Totta has trained algorithms on a considerable amount of personal data: 2 to 3 hundred variables over a period of 25 years.

Such analyses carry the risk that existing biases are reproduced:

Luk [A Totta spokesperson] says that in some municipalities more fraud is found among people who have a partner (e.g., they don’t report income), whereas in others it is people without a partner (failing to report they live together). «But it’s quite possible that only that group has been investigated and we build our algorithms on that.»

Luk says they sometimes add ‘deviant’ citizens to the suspects, apparently in an attempt to look beyond the usual suspects.

Another problem is the lack of transparency regarding how this type of algorithms work. Totta doesn’t disclose its algorithms because it wants to protect its business interests; further, it can be difficult to interpret and explain how algorithms work. As a result, the government is unable to explain what criteria it uses to prepare decisions that affect citizens. Recently, the Dutch Council of State expressed concerns over digital decision-making by the government.

Proponents of algorithms argue that they help to detect more fraud while reducing the burden for innocent citizens. In fact, there may not be such a clear distinction. The organisation of welfare agencies said that alleged welfare frauds are often people who mean no harm, but who get into trouble as a result of complex and ambiguous welfare rules.

Still, Amsterdam city council member Anne Marttin (VVD) finds the approach interesting. She asked if Amsterdam uses algorithms and data mining to detect welfare fraude. The answer is no. This is why:

The city government is aware of the use by other municipalities of algorithms and/or data mining to fight welfare fraud. The city does not use such instruments to deal with or prevent welfare fraud. […]

Our services for welfare recipients are based on trust. Further, the city government attaches great importance to the privacy of citizens and the way in which their data is used by the government, for example to develop algorithms. The city government thinks it’s very important that the use of data mining and algorithms doesn’t have a negative impact on the privacy and the legal protection of citizens.

Source (pdf)

Vertrouwen in plaats van algoritmes

UPDATE 11 maart 2019 - Uit de FNV Lokale Monitor 2018 blijkt dat 25% van de deelnemende gemeenten algoritmes toepast op persoonsgegevens om bijstandsgerechtigden aan te merken als potentiële fraudeur. 9% huurt hiervoor een commercieel bedrijf in. Vice-voorzitter Kitty Jong heeft kritiek op de werkwijze: «Iedere bijstandsgerechtigde is “bij voorbaat verdacht”. Volgens FNV kán en mág dat niet!».

Verschillende gemeenten hebben het bedrijf Totta data lab ingehuurd om te voorspellen welke uitkeringsgerechtigden misschien frauderen (ze hebben dit zelf niet actief naar buiten gebracht, maar de NRC schreef er afgelopen voorjaar over). Totta heeft algoritmes getraind op een enorme hoeveelheid persoonsgegevens: twee- tot driehonderd variabelen over een periode van 25 jaar.

Dit soort analyses brengen het risico met zich mee dat bestaande vooroordelen worden versterkt:

Luk [een Tottawoordvoerder] zegt dat bij de ene gemeente meer fraude gevonden wordt bij mensen mét partner (die geven bijvoorbeeld inkomsten niet op), terwijl het in andere gaat het om mensen zónder partner (die geven niet op dat ze samenwonen). «Maar het kan ook zijn dat er alleen onderzocht is op die groep en dat wij daar ons algoritme op bouwen.»

Luk zegt dat ze soms ook ‘afwijkende’ burgers als verdachte aanmerken. Zo willen ze waarschijnlijk voorkomen dat alleen de usual suspects in beeld komen.

Een ander probleem is het gebrek aan transparantie. Totta houdt zijn algoritmes geheim om zijn bedrijfsbelang te beschermen. Daarnaast kan het lastig zijn om de werking van algoritmes te interpreteren en uit te leggen. Hierdoor kan de overheid niet goed uitleggen welke criteria een rol spelen bij besluiten over burgers. De Raad van State heeft onlangs vraagtekens geplaatst bij de digitalisering van overheidsbesluiten.

De aanbieders van algoritmes zeggen dat deze aanpak helpt om meer fraudeurs op te pakken en tegelijk minder onschuldige burgers lastig te vallen. De werkelijkheid is waarschijnlijk ingewikkelder. Volgens de koepel van sociale diensten zijn vermeende fraudeurs vaak mensen van goede wil, die in de problemen komen door de complexe en onduidelijke bijstandsregels.

Gemeenteraadslid Anne Marttin (VVD) ziet de aanpak even goed wel zitten. Ze wil weten of Amsterdam al gebruik maakt van algoritmes en datamining bij de aanpak van bijstandsfraude. Het antwoord is nee. Dit is de reden:

Het college is bekend met het gebruik van algoritmes en/of datamining ter bestrijding van bijstandsfraude in andere gemeenten. Het college maakt geen gebruik van dergelijke instrumenten in de aanpak en preventie van bijstandsfraude. […]

De basis van de dienstverlening aan bijstandsgerechtigden is vertrouwen. Het college hecht ook grote waarde aan de privacy van de burger en de wijze waarop diens gegevens door de overheid worden gebruikt, bijvoorbeeld voor het ontwikkelen van algoritmes. Het college vindt het van groot belang dat gebruik van datamining en algoritmes geen negatieve invloed heeft op de privacy van de bijstandsgerechtigde en diens rechtsbescherming.

Beantwoording raadsvragen (pdf)

The Digital City

Amsterdam has a new coalition agreement. The paragraph on democratisation and the Digital City was well received - a London-based researcher from Amsterdam liked the plans so much she decided to translate them into English.

The new coalition wants to create a democratic version of the smart city. Citizens should be in control of their data. The city will support co-operations that provide an alternative to platform monopolists. An information commissioner will see to it that the principles ‘open by default’ and ‘privacy by design’ are implemented.

The agreement also lists a number of issues the city is (or was) already working on:

  • City council information will be opened up. In 2015, the city council asked to make documents such as council meeting reports, motions, written questions etc available as open data. Since, some of that data has been made available through Open Raadsinformatie, but as yet no solution has been found for offering all council information in a machine readable form.
  • Freedom of information requests (Wob requests) will be published. Amsterdam started publishing decisions on Wob requests earlier this year; so far three have been [published][wob].
  • Interestingly, Amsterdam wants to use open source software whenever possible. Over ten years ago, Amsterdam planned a similar move, and its plans were sufficiently serious to needle Microsoft. In 2010, the plans foundered on an uncooperative IT department.

All in all, a nice combination of new ambitions and implementation of ‘old’ plans.

De digitale stad

Amsterdam heeft een nieuw coalitieakkoord. De passage over democratisering en de Digitale Stad is goed ontvangen - een Amsterdams-Britse onderzoeker was zo enthousiast dat ze een Engelse vertaling maakte.

De nieuwe coalitie wil een democratische invulling geven aan de smart city. Burgers moeten meer controle krijgen over hun data, er worden niet meer gegevens verzameld dan nodig en er komt steun voor coöperaties die een alternatief willen bieden voor platformmonopolisten. Een informatiecommissaris gaat erop toezien dat de uitgangspunten ‘open tenzij’ en ‘privacy by design’ worden waargemaakt.

Het akkoord noemt ook een aantal onderwerpen waar de gemeente al mee bezig is (of was):

  • Raadsinformatie wordt toegankelijk. In 2015 heeft de gemeenteraad daar al om gevraagd. Sindsdien is een deel van de raadsinformatie beschikbaar via Open Raadsinformatie, maar er is nog geen goede oplossing om alle raadsinformatie in een goed doorzoekbare en analyseerbare vorm beschikbaar te stellen.
  • Wob-verzoeken en documenten worden toegankelijk. Hier is ook al een begin mee gemaakt. Tot nog toe zijn er drie Wob-besluiten gepubliceerd.
  • Ook interessant is dat Amsterdam zo veel mogelijk met open-sourcesoftware gaat werken. Ruim tien jaar geleden was Amsterdam dat al van plan, en dat was serieus genoeg om Microsoft op de kast te jagen. In 2010 leden de plannen schipbreuk op ambtelijke weerstand.

Al met al een mooie mix van nieuwe ambities en uitvoering van ‘oude’ plannen.