Neue Open Graph-Darstellung auf Facebook

Seit Ende Mai 2018 stellt Facebook die Darstellung von Open Graph-Elementen wieder einmal um. Dies betrifft in erster Line die Vorschauen auf externe Websites, die von Facebook aus verlinkt werden. Die Art und Weise, wie diese Vorschauen dargestellt werden ist mitentscheidend dafür, ob ein Artikel erfolgreich ist oder nicht. Deshalb zahlt es sich durchaus aus, sich damit zu beschäftigen.

Facebook macht einem genau das aber nicht wirklich leicht. Die genaue Darstellung kann nur mit trial & error eruiert werden. Außerdem ist das neue Layout offenbar noch mitten im rollout, auch die Darstellung im Sharing Debugger und die Vorschau auf Facebook selbst weichen noch stark vom eigentlichen Posting ab.

Das neue Layout macht es auch viel schwieriger, informative und potentiell virale Link-Vorschauen zu posten, offenbar ist genau das der Sinn der Sache: Facebook will die User möglichst auf der eigenen Plattform halten. Auch die Bevorzugung von hochformatigen Bildern ist kontraproduktiv: Das Web bevorzugt immer schon querformatige Bilder.

Disclaimer: Die untenstehenden Infos sind das Ergebnis der Tests eines Abends. Sie haben weder Anspruch auf Vollständigkeit noch auf Richtigkeit. Die Mobildarstellung wurde mit dem Facebook-Client auf einem Pixel 2 unter Android getestet, andere Handys bringen möglicherweise andere Ergebnisse. Die angegebenen Zeichenzahlen sind als Richtwert zu betrachten. Für Korrekturen sowie ergänzende und weiterführende Infos bin ich dankbar!

Hier meine bisherigen Testergebnisse und Empfehlungen:

Postings ohne og:image

  • Ein einzeiliger og:title darf max. 63 Zeichen lang sein, längere Titel werden auf Kosten der og:description umgebrochen.
  • Bei einem einzeiligen Titel werden 289 Zeichen der og:description dargestellt.
  • Mobile Client: Der Titel wird zweizeilig dargestellt und nicht abgeschnitten. Die og:description fehlt komplett.

Postings mit hochformatigem og:image

  • Ein einzeiliger og:title darf max. 41 Zeichen lang sein, längere Titel werden auf Kosten der og:description umgebrochen.
  • Bei einem einzeiligen Titel werden 191 Zeichen der og:description dargestellt.
  • Mobile Client: Der Titel wird zweizeilig dargestellt und nicht abgeschnitten. Die ersten 119 Zeichen der og:description werden dargestellt.
  • Das optimale Format des og:image ist 800 x 1200 px (Seitenverhältnis 2:3). Bilder in anderen Formaten werden beschnitten.

Postings mit querformatigem oder quadratischem og:image

 

  • Ein einzeiliger og:title darf max. 61 Zeichen lang sein, längere Titel werden auf Kosten der og:description umgebrochen.
  • Bei einem einzeiligen Titel werden 71 Zeichen der og:description dargestellt.
  • Mobile Client: Der Titel wird zweizeilig dargestellt und nach 43 Zeichen abgeschnitten. Die og:description fehlt komplett.
  • Mobile Browser: Die Darstellung im mobilen Browser (diesfalls Firefox/Android) weicht vom mobilen Client ab. Das sollte noch genauer getestet werden.
  • Das optimale Format des og:image ist unverändert 1200 x 630 px. Bilder in anderen Formaten werden beschnitten. Quadratische Bilder werden querformatig beschnitten.

Vorläufige Empfehlung

Bislang war es unbestritten so, dass ein ideales og:image 1200 x 630 px groß und querformatig sein sollte. Dieses Format wird durch die neue Darstellung nun stark benachteiligt, insbesondere auch am mobilen Client. Derzeit sieht es so aus, als ob ein hochformatiges og:image die bessere Wahl wäre, da bei diesem Format auch am mobilen Client die og:description dargestellt wird. Man bekommt also nicht nur eine einigermaßen brauchbare Bilddarstellung am Desktop und mobil, sondern auch zumindest 119 Zeichen Beschreibung. Das dürfte nach dem heutigen Stand der Dinge der brauchbarste Kompromiss sein. Aber vielleicht ist ja nächste Woche wieder alles anders…

Letzte Aktualisierung: 1. Juni 2018, 16.08 Uhr

Online-Genealogie und die DSGVO: Ich hätte da ein paar Fragen

Carl und Elise

 

Am 25. Mai tritt die neue Datenschutz-Grundverordnung in Kraft, und sie bringt viele Neuerungen. In der Genealogie-Community wurde sie aber bislang kaum diskutiert und meine eigenen Recherchen als Nicht-Jurist hinterließen bei mir mehr Fragen als Antworten. Nachdem das Thema aber sowohl Plattform-Betreiber als auch AhnenforscherInnen angeht und die möglichen Strafen sehr hoch sind, seien meine offenen Fragen hier zur Diskussion gestellt:

Geltungsbereich

Die DSGVO definiert gleich zu Beginn (Art. 2, Abs. 2 lit. d), dass sie „keine Anwendung auf die Verarbeitung personenbezogener Daten (…) durch natürliche Personen zur Ausübung ausschließlich persönlicher oder familiärer Tätigkeiten“ findet. Damit ist zunächst einmal klar, dass private Ahnenforschung nicht durch die DSGVO berührt wird. Auf meinem privaten Computer darf ich also die Daten meiner lebenden Familienmitglieder verarbeiten.

Frage 1: Wie ist das aber, wenn ich meinen Stammbaum zu einem Online-Service übertrage, zum Beispiel zu Ancestry oder MyHeritage oder zu unserer geplanten Plattform GenSoup? Ist das dann immer noch eine persönliche oder familiäre Tätigkeit?

Verantwortlicher

Der „Verantwortliche“ ist nach Art. 4, Abs. 7 „die natürliche oder juristische Person, Behörde, Einrichtung oder andere Stelle, die allein oder gemeinsam mit anderen über die Zwecke und Mittel der Verarbeitung von personenbezogenen Daten entscheidet“. Über den Zweck und die Mittel entscheidet zweifellos der betroffene private Genealoge, wer sonst? Daraus ergibt sich

Frage 2: Wenn die DSGVO für Private nicht gilt, kann dann ein Privater überhaupt „Verantwortlicher“ im Sinne der Verordnung sein? Wenn nein, was ist er dann in diesem Kontext?

Auftragsverarbeiter

Der Auftragsverarbeiter ist jene Stelle, „die personenbezogene Daten im Auftrag des Verantwortlichen verarbeitet“ (Art. 4, Abs. 8)

Frage 3: Wenn der private User kein Verantwortlicher ist, da die DSGVO für ihn/sie nicht gilt, gibt es dann in diesem Kontext überhaupt einen „Auftragsverarbeiter“ im Sinne dieser Verordnung? Wo kein Verantwortlicher, da kein Auftragsverarbeiter, oder?

Wer bis hierher gelesen hat und diese Diskussion zu akademisch findet möge trotzdem weiterlesen, dann das war nur das Vorspiel. Denn es geht letztendlich um Haftung – und damit auch um viel Geld.

Zwischenstand: Wir wissen also nicht, ob private User einer Online-Genealogieplattform der DSGVO überhaupt unterliegen und, wenn ja, ob sie dann „Verantwortliche“ im Sinne der Verordnung sind. Wir wissen daher auch nicht, ob die Plattform selbst Auftragsverarbeiter (oder vielleicht doch Verantwortlicher?) ist.

Einwilligung

Eine der wichtigsten Bestimmungen der DSGVO ist, dass eine Verarbeitung peronenbezogener Daten lebender natürlicher Personen nur erfolgen darf, wenn es dafür eine Rechtsgrundlage gibt. In unserem Fall wäre das vermutlich Art. 6, Abs. 1 lit. a: „Die betroffene Person hat ihre Einwilligung zu der Verarbeitung der sie betreffenden personenbezogenen Daten für einen oder mehrere bestimmte Zwecke gegeben“. Diese Regelung entspricht durchaus dem common sense: Wenn man die Daten eines lebenden Familienmitglieds ins Internet stellt, dann sollte man dieses vorher fragen, das ist ebenso sinnvoll wie höflich. Wie das jemand machen soll, dessen Stammbaum 100.000 Personen und mehr umfasst (und die sind gar nicht so selten), bleibt allerdings dahingestellt. Aber es geht nicht um praktische Fragen, es geht um die Haftung.

Frage 4: Im Lichte obiger Erwägungen: Wer ist dafür zuständig, wenn sich ein Familienmitglied beschwert, dass seine/ihre Daten ohne Einwilligung verarbeitet wurden? Der Hausverstand sagt, dass das natürlich der User sein müsste, der die Daten eingespielt hat. Was ist aber, wenn der nicht erreichbar oder unwillig ist? Muss der Plattformbetreiber dann von sich aus tätig werden? Wenn ja, auf welcher Rechtsgrundlage? Und haftet dann der Plattformbetreiber gegenüber dem User, weil er dessen Daten ohne seine Zustimmung verfälscht/gelöscht hat?

Recht auf Auskunft/Information/Löschung/

Kapitel 3 der DSGVO regelt die „Rechte der betroffenen Person“, und die sind umfangreich: Es gibt das Recht auf Auskunft, auf Berichtigung, auf Löschung („Vergessenwerden“), etc.

Frage 5: An wen muss ein Betroffener sich wenden, wenn er diese Rechte geltend machen möchte? An den Plattformbetreiber? An den User? An niemanden, Pech gehabt? Wer haftet, wenn die Rechte des Betroffenen verletzt werden?

Aus der DSGVO ergeben sich noch viele weitere Fragen, die obigem Muster folgen. Es geht etwa um die besonders geschützten Daten nach Art. 9 (z.B. sexuelle Orientierung oder Verarbeitung genetischer Daten, wie in der DNA-Genalogie mittlerweile weit verbreitet). Es geht auch um die Veröffentlichung (entweder gegenüber einer breiten Öffentlichkeit oder auch nur gegenüber anderen Usern) im Zuge des Abgleichs von Stammbäumen („matching“). Und es geht letztlich auch um die Weitergabe von Daten, denn übereinstimmende Teilstammbäume werden natürlich von den meisten Usern in den eigenen Stammbaum übernommen, das ist ebenso sinnvoll wie komfortabel. So funktioniert Online-Genealogie seit vielen Jahren. Aber es landen die Daten des eigenen Cousins letztendlich bei entfernten Verwandten, ob der das will oder nicht.

Es geht also, um es noch einmal zu betonen, um Haftung. Es geht nicht darum, ob man etwas tun sollte oder nicht oder um Debatten zu best practices für Ahnenforschung, sondern mir geht es darum, wer für die Erfüllung der vielen Verpflichtungen nach der DSGVO zuständig ist und wer im Zweifelsfall geklagt werden kann, wenn er einer Verpflichtung nicht nachkommt? Wer zahlt die Strafe von bis zu 4 % des Jahresumsatzes? Der private User? Der Plattformbetreiber? Auf welcher Rechtsgrundlage? Oder niemand, weil die Verordnung schlicht für diesen Anwendungsfall nicht vorgesehen ist?

Ich freue mich über Antworten und eine rege Diskussion darüber, hier im Kommentarbereich und gerne auch auf Facebook. Sollte ich durch die Diskussion klüger werden schreibe ich gerne einen weiteren Artikel dazu.

Soll Facebook „reguliert“ werden? Und, wenn ja, was heißt das?

Facebook fickt Dein Leben

 

In den letzten Wochen wurden die Rufe lauter, Facebook möge doch endlich „reguliert“ oder „unter Aufsicht gestellt“ oder sonstwie beamtshandelt werden – vom Weißen Haus bis ins Berliner und ins Wiener Kanzleramt und zu den politischen KommentatorInnen allerorten. Mein unmittelbarer Anlass für diesen Artikel ist der Kommentar von Alexandra Föderl-Schmid im Standard vom 25.11.2016.

Facebook wird neuerdings immer öfter beschuldigt, durch jene Algorithmen, die den jeweiligen Newsfeed der User zusammenstellen, Echokammern zu erzeugen, in denen jede/r nur noch das zu hören bekommt, was er/sie hören will. Dadurch würden Vorurteile zementiert, ein gesellschaftlicher Diskurs verunmöglicht und sogar Wahlergebnisse beeinflusst. Facebook solle daher verpflichtet werden, diese Algorithmen zumindest offenzulegen, so die häufigste Forderung.

Darüber hinaus wird Facebook vorgeworfen, nichts gegen Falschmeldungen im Netz zu unternehmen. Dabei kann es sich um echte „Fake News“ handeln, die von sinistren Think Tanks, Geheimdiensten oder auch nur übereifrigen Wahlkämpfern zu Propagandazwecken erstellt und in den politischen Diskurs eingeschleust werden. Auch diese Fake News landen dann in den jeweiligen Echokammern und befeuern dort die Vorurteile ihrer Insassen. Andere Arten von Fake News sind eher eine Frage des Standpunktes des Betrachters: Es gibt nun einmal viele Menschen, die zum Beispiel daran glauben, dass die außerirdischen Reptiloiden an einer „New World Order“ basteln und in Wirklichkeit schon die Macht übernommen haben. Von den Fake News der ersten Kategorie sind diese mitunter nur schwer zu unterscheiden.

Ein weiterer Themenkomplex der üblichen Kritik ist, dass Facebook nichts oder zu wenig gegen strafbare Handlungen im Netz unternimmt. Facebook, so die These, sei als Medium für die Inhalte, die seine User posten, zumindest mitverantwortlich. Die Sorgfaltspflicht gebiete es, strafrechtlich relevante Inhalte zumindest dann schnell zu entfernen, wenn man von Usern oder Strafverfolgungsbehörden darauf hingewiesen werde. Klingt auch logisch, oder?

Es gibt allerdings auch die gegenteilige Kritik, oft von denselben Personen vorgetragen: Facebook zensiere zu viel und zu willkürlich. Fotos nackter Brüste werden erbarmungslos gelöscht, sogar Abbildungen griechischer Statuen oder klassischer Gemälde, wenn auch nur ein Teil einer Brustwarze darauf zu erkennen ist.

Soweit ein kurzer Abriss der häufigsten Kritikpunkte, auf die ich nun eingehen möchte:

Facebooks Newsfeed-Algorithmus

Ob die Auswirkungen des Newsfeed-Algorithmus tatsächlich so groß sind, wie behauptet wird, bin ich mir nicht sicher. Es war auch schon in früheren Zeiten so, dass sich Menschen hauptsächlich mit Gleichgesinnten umgeben und diese sich gegenseitig in ihren Meinungen und Vorurteilen bestärkt haben. Auch in den 1960er Jahren gab es nicht sehr viele Stammtische, an denen Weltkriegsveteranen und Hippies zusammensaßen und respektvoll und auf Augenhöhe miteinander diskutierten. Und auch der Medienkonsum der Menschen orientierte sich immer schon an deren Wertvorstellungen. Diejenigen, die „Die Zeit“ und die „Bild am Sonntag“ gleichzeitig konsumieren sind entweder Newsjunkies oder professionell dazu verpflichtet. Was allerdings früher tatsächlich wichtiger war als heute, waren die Abendnachrichten der öffentlich-rechtlichen Fernsehsender, die etwas Ausgewogenheit und Fakten zum Meinungsbild beisteuerten.

Unabhängig von diesen Überlegungen bin ich aber tatsächlich der Meinung, dass der Algorithmus ein Problem ist. Facebook entscheidet als de-facto-Monopolist darüber, welche Inhalte jemand zu sehen bekommt und welche nicht. In einer perfekten Welt würde Facebook  den Usern einen algorithmenfreien Newsfeed zur Verfügung zu stellen und ihnen die Werkzeuge in die Hand geben, sich ihren Newsfeed selbst zusammenzustellen: Von dieser Seite will ich alles sehen, von dieser Gruppe will ich nur das sehen, was meine Freunde kommentiert haben, von dieser Freundin will ich alles sehen, von jenem Freund nichts. Und ja, alle diese Einstellungen gibt es schon; aber trotzdem kann man den Algorithmus nicht einmal optional abschalten. Er ist immer da, und das wäre leicht zu ändern.

Die Forderung, den bestehenden Algorithmus offenzulegen, ist dagegen ziemlich blauäugig: Facebook wäre dann ein gefundenes Fressen für Spammer aller Art, die dieses Wissen ausnutzen würden, um ihre Inhalte möglichst prominent zu platzieren. Das passiert bereits (ähnlich wie bei Google), da ja Teile des Algorithmus bekannt sind. Aber eine komplette Offenlegung würde das Problem massiv verschlimmern. Nebenbemerkung: Im Unterschied zu Google ist der Algorithmus von Facebook kein wesentlicher Bestandteil der Dienstleistung. Google lebt davon, dass die Menschen jene Inhalte zuerst finden, die für sie am sinnvollsten sind. Google muss also die Informationsflut vorsortieren, sonst wäre deren Service für die User sinnlos. Facebook muss das nicht, aber es ist gut für’s Geschäft: Je länger sich die User auf Facebook aufhalten, desto mehr Werbung konsumieren sie. In dieser Sichtweise ist der Facebook-Algorithmus also notwendigerweise manipulativ. Aber es ginge bei Facebook prinzipiell auch ohne Algorithmus – bei Google nicht.

Die etwas abgeschwächtere Forderung lautet, Facebook möge den Algorithmus einer „trusted third party“, also etwa einem Team von WissenschafterInnen gegenüber offenlegen. Diese hätten dann die Möglichkeit, als eine Art wissenschaftliches Beratungsteam, Vorschläge zu erstatten, wie der Algorithmus „besser“ funktionieren könnte. Klarerweise müsste dieses Team unter strengster Verschwiegenheit arbeiten, weder deren Analysen noch deren Vorschläge könnten einer öffentlichen Diskussion unterzogen werden. Ich denke, dass sich Facebook dadurch nur einen Mantel von Legitimität umhängen würde, ohne, dass sich an den individuellen Rechten der User oder an den geschilderten gesellschaftlichen Problemen irgendetwas grundlegend ändern würde. Die einzige sinnvolle Möglichkeit besteht wohl darin, wie oben argumentiert, Druck auf Facebook auszuüben, damit sich die User ihre Newsfeeds selbst zusammenstellen können.

„Fake News“ auf Facebook

Wenn man Facebook dazu zwingen möchte, „Fake News“ aus dem Newsfeed zu eliminieren, begibt man sich auf sehr dünnes Eis – denn die Konsequenz daraus ist, dass es eine Institution geben muss, die die „Wahrheit“ als solche erkennt und die „Lüge“ eliminiert, also eine Art Orwell’sches Wahrheitsministerium, polemisch ausgedrückt. Die sich daraus ergebenden philosophischen und politischen Probleme sind selbsterklärend.

Ich denke, dass eine Abschaffung des Newsfeed-Algorithmus, wie oben geschildert, bereits einen Teil des Problems lösen würde. Was den Rest betrifft, so gibt es keine schnelle befriedigende Lösung dafür, denn: Wenn ein User etwas postet, dann wollen seine/ihre Freunde das prinzipiell auch sehen, sonst würde es ja nicht gepostet werden. Möglicherweise könnte man den Leuten bessere Werkzeuge in die Hand geben, um die Qualität eines Links zu beurteilen. Dann würde zum Beispiel bei einem Beitrag stehen: „20 User haben den Artikel als Fake News gekennzeichnet“. Aber auch solche Varianten haben den Nachteil, dass sie missbraucht werden könnten. Um das „wisdom of the crowd“ zur Beurteilung der Qualität und des Wahrheitsgehalts von Meldungen auszunutzen und entsprechend einsetzen zu können muss vermutlich noch viel experimentiert werden. Eines ist aber klar: Weder staatliche Stellen noch Facebook als de-facto-Monopolist können diese Aufgabe inhaltlich erfüllen. Wenn das jemand kann, dann nur die User selbst.

Zu wenig oder zu viel Zensur auf Facebook?

Die schwierigste Frage ist jene nach der Zensur auf Facebook: Nachdem Facebook unter hunderten nationalen Gerichtsbarkeiten agiert gibt es keine Möglichkeit, es allen recht zu machen, und das ist wohl gut so. Derzeit ist Facebook gezwungen zu lavieren: Prinzipiell agiert man unter US-amerikanischen Vorstellungen von Recht und Sittlichkeit, daher ist es aus Sicht von Facebook nur konsequent, nichts gegen Gewaltdarstellungen zu unternehmen, dafür aber nackte Brustwarzen zu zensurieren.

Daneben gibt es noch einen zweiten Bereich, um den sich Facebook mal mehr und mal weniger kümmert: Wenn User oder Seiten, die einer bestimmten nationalen Gesetzgebung unterliegen, etwas posten, das dieser Gesetzgebung zuwiderläuft, dann schreitet man auch öfter mal ein, zumindest, wenn die Zurufe laut und nachdrücklich genug sind. Der Klassiker in Österreich und Deutschland ist die nationalsozialistische Wiederbetätigung. Vereinfacht ausgedrückt: Wenn ein österreichischer Nazi in Österreich etwas postet, das den Tatbestand der Wiederbetätigung erfüllt, dann ist er nach österreichischen Gesetzen fällig und Facebook muss den Inhalt löschen. Wenn aber ein US-Nazi in den USA etwas nationalsozialistisches postet, dann ist das nach den dortigen Gesetzen völlig legal – nach den hiesigen nicht – und kann trotzdem auch hier gelesen werden.

Die Millionenfrage lautet also: Soll Facebook Inhalte löschen, die in den Herkunftsländern legal sind? Oder sollen diese Inhalte nur in den Empfängerländern ausgeblendet werden? Oder soll Facebook einfach nichts tun?

Variante 1: Alles löschen, was irgendwo illegal ist

Wenn Facebook alle Inhalte löscht, die auch nur in einem einzigen Land illegal sind, dann bleibt als kleinster gemeinsamer Nenner nur noch all das über, was auf der ganzen Welt legal ist, vermutlich sind das hauptsächlich Katzenbilder. Aber auch abseits der Polemik ist diese Variante problematisch: Als de-facto-Monopolist mit einer besonderen Verantwortung kann Facebook hier nur herumlavieren, denn der US-Nazi kann sich jederzeit auf sein verfassungsmäßig verbrieftes Recht auf freie Meinungsäußerung stützen – genauso, wie sich die österreichische Staatsanwaltschaft auf das hiesige Verbotsgesetz beruft. Ich bin kein Jurist, aber dieser Konflikt scheint mir so nicht leicht lösbar.

Variante 2: Inhalte nur in den Empfängerländern ausblenden

Nationalsozialistische Wiederbetätigung wird in Deutschland nicht angezeigt, Beleidigung des Türkentums wird in der Türkei ausgeblendet und auf IP-Adressen in Saudi-Arabien werden unverhüllte Frauengesichter entfernt. Somit wäre jede nationale Gesetzgebung zufriedengestellt. Um das allerdings flächendeckend gewährleisten zu können, müssten mehrere milliarden Postings pro Tag auf ihre Vereinbarkeit mit weit über hundert nationalen Gesetzgebungen kontrolliert werden. Das klingt auch nicht wirklich nach einer sinnvollen Lösung. Dazu kommt, dass dann Diskussionen, zumindest auf den großen, internationalen Facebook-Seiten, ziemlich sinnlos wären: Jeder User bekäme je nach Standort nur einen Teil der Postings und Kommentare zu sehen. Es entstünden also nicht nur nationale Echokammern, diese hätten auch noch widersinnige Löcher, weil die Threads für niemanden komplett einsehbar wären.

Variante 3: Alles bleibt, wie es ist

Das ist in Wirklichkeit die wahrscheinlichste Variante: Facebook wird weiterhin auf der Grundlage der US-amerikanischen Gesetze und Moralvorstellungen agieren und sich nur dann intensiver um andere nationale Gesetzgebungen kümmern, wenn der Druck zu groß wird und/oder das Geschäftsmodell in Gefahr gerät. Befriedigend ist auch das nicht, aber aus Sicht von Facebook zumindest verständlich.

Variante 4: Die ideale Welt

In einer idealen globalisierten Welt würden internationale Medien auch international reguliert werden, am besten unter dem Dach der Vereinten Nationen. Es braucht – nicht nur für Facebook, aber auch – einen allgemein verbindlichen und akzeptierten Rahmen, in dem internationale Online-Medien und Plattformen agieren können. Dazu gehören auch demokratisch legitimierte Gremien, die die Rechte von Usern (einschließlich des Rechtes auf Meinungs- und Informationsfreiheit) ebenso wahren, wie die von GeschäftspartnerInnen der jeweiligen Plattformen. Es gäbe dann auch Beschwerde- und Berufungsinstanzen und verbindliche Mindeststandards, an die sich alle halten müssen: Die Betreiber der Medien und Plattformen, die Staaten, die Werbetreibenden und die User. Die entsprechende Konvention gilt für alle Staaten, die sich ihr anschließen, auf Nichtmitglieder muss niemand Rücksicht nehmen – das tun diese ja auch nicht.

Mir ist völlig klar, dass es sich dabei um eine allenfalls langfristige Vision handelt – aber sie ist auch nicht unrealistischer als der oft implizit geäußerte Wunsch, dass sich die ganze Welt an österreichische Gesetze halten solle.

Bildnachweis: Tanja Djordjevic: facebook, CC BY-NC-ND 2.0