Traurige Tendenzen

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Nubok schrieb:

      Wenn du das so korrekt geschrieben hast (und es deutet für mich nichts darauf hin, dass dem nicht so wäre), sollte man dem Entwickler, der sich dieses Sicherheitskonzept ausgedacht hat, kündigen.

      Nubok, das ist kein Sicherheitkonzept. Soll auch gar keines sein. Forensoftware hat diese Ausnahmeregelung für Bots aus einen ganz anderen Grund. Der Hintergedanke ist, das der 0815 User die Inhalte bei den Suchmaschienen findet, aber wenn er dann aufs Forum klickt, diese nicht sieht. Um weiter stöbern zu können muss er sich dann regestrieren, wenn er nicht weiß, wie man sich den Useragentstring von einem Bot verpasst. Letzteres trifft nun mal auf die Masse der User zu, deswegen funktioniert das auch. Weil diese Methode recht verbreitet ist, gibt es die Möglichkeit auch bei der meisten Standartsoftware. Ob das nun in den Standarteinstellung automatisch so eingestellt ist oder nicht, weiß ich nicht. Dazu müsste ich wissen, welche Software das konkret ist - dann könnte man es ausprobieren. Es kann aber genauso gut sein, das der Admin das aus versehen eingestellt hat. Das kann ich ohne ausprobieren gar nicht nachvollziehen.

      Aber es erklärt 1:1 den beschriebenen Schverhalt: Bots scannen die Forenbereiche einfach so ab.
      Milan: "Dann hätte es ein Robot nicht so einfach auch die verdeckten Forenteile zu scannen."

      Wenn man ein Forenbereich richtig verdeckt, dann kann ein Bot ihn nicht abscannen. Ein Bot, wie auch der Mensch, kann den Bereich nur dann sehen und abscannen, wenn er sich mit Usernamen und Password eingeloggt hat und von Admin die Rechte bekommt, den Bereich zu sehen.

      Gruß
      "Wir sind alle Sternenstaub, daher teilen wir alle dieselben Vorfahren, wir sind die Sterne. Und wir sind die Brüder der wilden Tiere und die Lilien auf dem Felde sind unsere Vettern." Trinh Xuan Thuan
    • Phasenverschobener schrieb:

      Nubok schrieb:

      Wenn du das so korrekt geschrieben hast (und es deutet für mich nichts darauf hin, dass dem nicht so wäre), sollte man dem Entwickler, der sich dieses Sicherheitskonzept ausgedacht hat, kündigen.

      Nubok, das ist kein Sicherheitkonzept. Soll auch gar keines sein. Forensoftware hat diese Ausnahmeregelung für Bots aus einen ganz anderen Grund. Der Hintergedanke ist, das der 0815 User die Inhalte bei den Suchmaschienen findet, aber wenn er dann aufs Forum klickt, diese nicht sieht. Um weiter stöbern zu können muss er sich dann regestrieren, wenn er nicht weiß, wie man sich den Useragentstring von einem Bot verpasst. Letzteres trifft nun mal auf die Masse der User zu, deswegen funktioniert das auch. Weil diese Methode recht verbreitet ist, gibt es die Möglichkeit auch bei der meisten Standartsoftware.


      Da der User-Agent-String änderbar ist, hat man sicherheitsmäßig nichts gewonnen. Ganz im Gegenteil: die Nutzer wiegen sich in der Scheinsicherheit, dass der Zugriff nur für Leute, die registriert sind möglich ist.

      Zum Argument, dass halbe Sicherheit besser ist als gar keine, hat der Sicherheitsexperte Felix von Leitner eine polemische Entgegnung geschrieben (anhand des Beispiels der Personal Firewalls; gilt aber auch für diese "Sicherheitsmaßnahme"): fefe.de/pffaq/halbesicherheit.txt

      Eine wichtige Best-Practise der Mensch-Maschine-Interaktion (HMI) ist das "Principle of Least Surprise": de.wikipedia.org/wiki/Principle_of_Least_Surprise, welches im Wesentlichen aussagt, dass keine unerwarteten Überraschungen in der HMI auftreten sollten, weil das zu psychologischem Streß führt.

      Ein ähnliches Prinzip gibt es auch in der IT-Sicherheit als Best Practise: "Principle of Psychological acceptability"

      Zitat von
      web.mit.edu/Saltzer/www/publications/protection/Basic.html

      Psychological acceptability: It is essential that the human interface be designed for ease of use, so that users routinely and automatically apply the protection mechanisms correctly. Also, to the extent that the user's mental image of his protection goals matches the mechanisms he must use, mistakes will be minimized.

      Denn wenn die Sicherheitsmaßnahmen unangenehm auf die Nutzer wirken oder sich das System unerwartet verhält, werden sich die Nutzer dagegen wehren.

      In diesem Fall: Bots dürfen "ungefragt durch", während Nutzer erst nach Registrierung sich den Thread ansehen dürfen; Sicherheitsnutzen null (wie dargelegt) und für Nutzer unerwartet. Daher ist es klar, dass der Login-Zwang hier wie Nutzergängelung wirkt, wodurch wir eine Verletzung der Best Practise der "Psychological acceptability" haben.
      Wenn man ein Forenbereich richtig verdeckt, dann kann ein Bot ihn nicht abscannen. Ein Bot, wie auch der Mensch, kann den Bereich nur dann sehen und abscannen, wenn er sich mit Usernamen und Password eingeloggt hat und von Admin die Rechte bekommt, den Bereich zu sehen.

      Gruß
      Nein, es würde reichen, wenn jeder Zugreifer (ob Mensch oder Bot) gültige Login-Credentials liefern muss, wenn er auf einen "privilegierten" Thread zugreifen will. Das "Verstecken" von Bereichen dient nur zu Beruhigung von unerfahrenen Personen, dass diese nicht neugierig werden, was sich dahinter verbergen könnte (also psychologische Vorteile a la "was ich nicht weiß, macht mich nicht heiß"). Unter Sicherheitsaspekten bietet es keinen Vorteil.
      Erst wenn der letzte Programmierer eingesperrt und die letzte Idee patentiert ist, werdet ihr merken, dass Anwälte nicht programmieren können.
    • Nubok schrieb:

      Da der User-Agent-String änderbar ist, hat man sicherheitsmäßig nichts gewonnen.

      Warum sollte auch? Ich hab doch gesagt, dass es bei der ganzen Geschichte gar nicht um Sicherheit geht, sondern um Userfang.

      Gruß
      "Wir sind alle Sternenstaub, daher teilen wir alle dieselben Vorfahren, wir sind die Sterne. Und wir sind die Brüder der wilden Tiere und die Lilien auf dem Felde sind unsere Vettern." Trinh Xuan Thuan
    • Phasenverschobener schrieb:

      Nubok schrieb:

      Da der User-Agent-String änderbar ist, hat man sicherheitsmäßig nichts gewonnen.

      Warum sollte auch? Ich hab doch gesagt, dass es bei der ganzen Geschichte gar nicht um Sicherheit geht, sondern um Userfang.
      Dann haben wir wohl komplett aneinander vorbei geschrieben und stimme dir 100% zu. :)

      Unter dieser Prämisse gelten in der Tat komplett andere Regeln, die ich jedoch an dieser Stelle nicht auflisten werde, um hier niemanden auf dumme Gedanken zu bringen.
      Erst wenn der letzte Programmierer eingesperrt und die letzte Idee patentiert ist, werdet ihr merken, dass Anwälte nicht programmieren können.
    • die Fachleute haben gesprochen - prima ;)

      Nun ich sprach von Admintools, weil ich eben auf einer anderen Ebene programmiere.

      Ich verwende htaccess für meine selbstgeschriebenen Sachen und weiß aber von der forensoft von der ich ja auch sprach das dort eine andere Methode verwendet wird oder nur teilweise htaccess.

      Eben deshalb fragte ich nach dem Admin-Tool, denn auch der Admin des Forums ist ein Admin gewissermaßen.

      Mir ist jedenfalls auf Serverebene derzeit kein solcher Anti-bot-Knopf bekannt ;) Und auch kein admintool das soetwas anbieten würde. Da ich lernbereit bin ...

      Also wie schön in eurer Diskussion herausgekommen ist sind die allermeisten Benutzer des Internets nicht in der Lage sich Wege zu suchen, wenn Oberflächen zwischen ihnen und dem Server liegen die entsprechend manipuliert werden können um das zu realisieren wovon ich sprach. Es wäre beispielsweise bezüglich Apache die Möglichkeit im Filtermodul etwas zu implementieren das bestimmte ips versteckt je nach anfragenden ips.

      Natürlich wird das einen Hacker oder einen versierten Benutzer nicht abhalten, aber es wird die Masse abhalten.
      Und interessanterweise sind die meisten politisch stark interessierten nicht gerade die Internet-Profis sondern eher solche, die wenig mit dem Internet zu tun haben und daher größte Probleme haben überhaupt zu erkennen das sie nicht alles sehen was sie sehen wollen.

      Ein beliebtes Beispiel ist da z.B. der Internetexplorer. (Ich weiß nicht ob es noch bei der aktuellen Version gilt) Lange Zeit hat der nämlich einfach den css 2.0 Standard nur fehlerhaft dargestellt was vor allem Tabellen und positionierung von Bereichen betrifft.
      Seiten die problemlos mit Mozilla, Firefox und opera vollständig zu sehen waren zeigte der Internetexplorer nur zur hälfte nä,mlich erstaunlicherweise die Linke Hälfte ;)

      Ein IE-Benutzer konnte das nur daran merken das ein anderer ihm sagte da fehlt was!

      Also es geht nicht darum in meiner Argumentation das prinzipiell der Weg vom Benutzer zu bestimmten Webseiten gesperrt werden, sondern das die Masse den Weg nicht findet.
      Derzeit kommt das nächste an den Tag.
      Wer nicht einen speziellen Zugang bezahlt wird mit längeren Wartezeiten zu tun bekommen.
      Wie wird das denn geregelt?
      Wenn ich sehe wie derzeit das Händy und das Internet "Fernsehtauglich" gemacht wird kann ich mir vorstellen, das die Performance erheblich gesenkt wird für den Einzelnen.
      Damit die Fernseh-Streams dann überhaupt funktionieren und nicht abreissen müßte schon eine Art privilgierung bestimmter Verbindungen oder Pakete stattfinden.
      Und genau so wirds wohl sein. Auch das wird zum größeren Teil eher über die Oberflächen kontrolliert als im Kern des Protokolls implementiert stattfinden.

      Und es ist auch gut in eurer Diskussion heraus gekommen, das es nun entscheidend wird die Spuren im Netz nicht zu hinterlassen, dabei spielt es überhaupt keine wesentliche Rolle in einem bestimmten Aspekt, ob der Benutzer dabei identifizierbar ist, Alein die Häufigkeit der Besucher eines bestimmten Themas kann signifikante Aussagen über soziale Bewegungen geben.

      Das schon erwähnte Web-Robot-Projekt, was ursprünglich mal für die Börse gemacht wurde, nun aber alle relevanten Themen untersucht sagtr für den 21.12.2012 eine Katastrophe voraus. Naja für die Massen an Seiten die dieses Thema behandeln kann der Robot auch keine andere evidenz errechnen und eigentlich ist das schon vorher klar gewesen ;) aber welche Wirkung haben solche "Prophezeiungen" wenn der Effekt der selbsterfüllenden Prophezeiung hinzugenommen wird?

      Ich will darauf hinaus, das eine Monostruktur in Sachen Oberflächen, wie sie durch facebook etc. etabliert werden oder auch die fast gleich aufgebauten PHP-Foren z.B. darstellen den Robots es wesentlich einfacher machen die sozialen Bewegungen vorauszusagen wann sie gefährlich werden können. Und ich wette das diese Informationen sehr wohl längst einbezogen werden in die Planung der Herrschaft. Und ich wette, das alle die dem System wirklich gefährlich werden könnten auf diversen Ebenen und mit diversen Methoden behindert gestört und beobachtet werden. Ein direkter Zugriff auf die Person oder eine direkte Sperrung wird tunlichst vermieden damit die tatsächliche Überwachung im Nebel der Verschwörungstheorien untertauchen kann.

      Gerade deshalb mußte ich diesen Thread beginnen um eben darauf aufmerksam zu machen und eben eine Haltung zu demonstrieren. Ich bin mir klar, das ich nun langsam konsequent handeln muß, denn trotz dieser aufklärerischen Gedanken ändert sich nichts bisher hier im Forum.

      Weiterhin sozial Bookmarks und facebook und twitter Button. Wenn wenigstens die Icons vom eigenen Server kämen und nur das Anclicken eine Aktion auslösen würde aber nichtmal das ist der Fall.

      Ich habe übrigens mal einen Perlscript geschrieben der als Antwort nur ein leeres Gif zurück liefert und damit einen Seiten-Zähler realisiert. Und ich hätte den Apache dazu bringen können, das der Aufruf des Scriptes auch mit der Endung gif hätte laufen können, wenn ich alle anderen gifs ebenso von einem Script hätte senden lassen. Das hätte niemand bemerkt. Für google oder die anderen großen ist das kein Problem einen einzelnen Rechner nur für solche Aufrufe zu hosten. Das Log das mein script schrieb hat alle relevanten Daten protokolliert welche ich haben wollte. Und wenn ich dazu eine Statistik-Soft geschrieben hätte wäre es kein Problem gewesen das Surf-Verhalten der Besucher genauestens zu analysieren, also wann wer wo wielange war und woher er kam, welche internen Links er angeklickt hat und welches seine erste und letzte besuchte Seite war, aber auch wie oft er wiedergekommen ist, wenn ich dabei die Browserkennung in Relation zum ip-Bereich gesetzt hätte.
      Wenn ich dann den Inhalt der Seiten geschickt gewählt hätte und einbezihe in die Statistik könnte ich herausfinden wie interessiert derjenige an bestimmte Themen ist und dementsprechend könnte ich sogar psychologische, soziale und wirtschaftliche Einschätzungen durchführen.
      Der eigentiche Script war nur eine halbe Seite perlcode und die Protokollierung und Auswertung vielleicht 10 Seiten. Eine Statistik soft dazu wären vielleicht nochmal 50-100 Seiten. Mehr ist für sowas nicht nötig.
    • freierMilan schrieb:

      die Fachleute haben gesprochen - prima ;)
      Ich verwende htaccess für meine selbstgeschriebenen Sachen und weiß aber von der forensoft von der ich ja auch sprach das dort eine andere Methode verwendet wird oder nur teilweise htaccess.
      HTTP-Authentication wird meist deswegen ungern verwendet, weil der Dialog, in dem die Login-Credentials abgefragt werden nicht designerisch angepasst werden kann.


      Also wie schön in eurer Diskussion herausgekommen ist sind die allermeisten Benutzer des Internets nicht in der Lage sich Wege zu suchen, wenn Oberflächen zwischen ihnen und dem Server liegen die entsprechend manipuliert werden können um das zu realisieren wovon ich sprach. Es wäre beispielsweise bezüglich Apache die Möglichkeit im Filtermodul etwas zu implementieren das bestimmte ips versteckt je nach anfragenden ips.

      Natürlich wird das einen Hacker oder einen versierten Benutzer nicht abhalten, aber es wird die Masse abhalten.


      Weil die Browser immer mehr in die Richtung entwickelt werden, das www zu einem Konsum-Medium zu degradieren. Wie ich unter 101_browser einen Ausblick gegeben habe, arbeite ich daran, dass vielleicht in ein paar Jahren sich daran etwas ändert.


      Ein beliebtes Beispiel ist da z.B. der Internetexplorer. (Ich weiß nicht ob es noch bei der aktuellen Version gilt) Lange Zeit hat der nämlich einfach den css 2.0 Standard nur fehlerhaft dargestellt was vor allem Tabellen und positionierung von Bereichen betrifft.
      Seiten die problemlos mit Mozilla, Firefox und opera vollständig zu sehen waren zeigte der Internetexplorer nur zur hälfte nä,mlich erstaunlicherweise die Linke Hälfte ;)

      Ein IE-Benutzer konnte das nur daran merken das ein anderer ihm sagte da fehlt was!

      Also es geht nicht darum in meiner Argumentation das prinzipiell der Weg vom Benutzer zu bestimmten Webseiten gesperrt werden, sondern das die Masse den Weg nicht findet.


      Es gibt genug Suchmaschinen (Google, Bing, Clusty, DuckDuckGo etc.), die man benutzen kann, um die Informationen zu finden. Meiner Meinung nach ist die Masse einfach faul.


      Derzeit kommt das nächste an den Tag.
      Wer nicht einen speziellen Zugang bezahlt wird mit längeren Wartezeiten zu tun bekommen.
      Wie wird das denn geregelt?
      Wenn ich sehe wie derzeit das Händy und das Internet "Fernsehtauglich" gemacht wird kann ich mir vorstellen, das die Performance erheblich gesenkt wird für den Einzelnen.
      Damit die Fernseh-Streams dann überhaupt funktionieren und nicht abreissen müßte schon eine Art privilgierung bestimmter Verbindungen oder Pakete stattfinden.
      Und genau so wirds wohl sein. Auch das wird zum größeren Teil eher über die Oberflächen kontrolliert als im Kern des Protokolls implementiert stattfinden.


      Ja, Netzneutralität ist ein sehr kritisches Thema. Rein technisch ließe sich das jedoch auch implementieren, ohne die Netzneutralität zu verletzen. Und zwar bietet das IP-Protokoll auch sogenannte Broadcasts an:
      > de.wikipedia.org/wiki/Broadcast

      Diese werden im globalen Internet ignoriert, aber können rein technisch im Subnetz des Providers umgesetzt werden, so dass der Provider Fernsehdienste anbieten kann. Fragt sich nur, ob die Provider so intelligent sind, das zu erkennen...


      Und es ist auch gut in eurer Diskussion heraus gekommen, das es nun entscheidend wird die Spuren im Netz nicht zu hinterlassen, dabei spielt es überhaupt keine wesentliche Rolle in einem bestimmten Aspekt, ob der Benutzer dabei identifizierbar ist, Alein die Häufigkeit der Besucher eines bestimmten Themas kann signifikante Aussagen über soziale Bewegungen geben.

      Das schon erwähnte Web-Robot-Projekt, was ursprünglich mal für die Börse gemacht wurde, nun aber alle relevanten Themen untersucht sagtr für den 21.12.2012 eine Katastrophe voraus. Naja für die Massen an Seiten die dieses Thema behandeln kann der Robot auch keine andere evidenz errechnen und eigentlich ist das schon vorher klar gewesen ;) aber welche Wirkung haben solche "Prophezeiungen" wenn der Effekt der selbsterfüllenden Prophezeiung hinzugenommen wird?

      Ich will darauf hinaus, das eine Monostruktur in Sachen Oberflächen, wie sie durch facebook etc. etabliert werden oder auch die fast gleich aufgebauten PHP-Foren z.B. darstellen den Robots es wesentlich einfacher machen die sozialen Bewegungen vorauszusagen wann sie gefährlich werden können. Und ich wette das diese Informationen sehr wohl längst einbezogen werden in die Planung der Herrschaft. Und ich wette, das alle die dem System wirklich gefährlich werden könnten auf diversen Ebenen und mit diversen Methoden behindert gestört und beobachtet werden. Ein direkter Zugriff auf die Person oder eine direkte Sperrung wird tunlichst vermieden damit die tatsächliche Überwachung im Nebel der Verschwörungstheorien untertauchen kann.

      Gerade deshalb mußte ich diesen Thread beginnen um eben darauf aufmerksam zu machen und eben eine Haltung zu demonstrieren. Ich bin mir klar, das ich nun langsam konsequent handeln muß, denn trotz dieser aufklärerischen Gedanken ändert sich nichts bisher hier im Forum.

      Weiterhin sozial Bookmarks und facebook und twitter Button. Wenn wenigstens die Icons vom eigenen Server kämen und nur das Anclicken eine Aktion auslösen würde aber nichtmal das ist der Fall.

      Ich habe übrigens mal einen Perlscript geschrieben der als Antwort nur ein leeres Gif zurück liefert und damit einen Seiten-Zähler realisiert. Und ich hätte den Apache dazu bringen können, das der Aufruf des Scriptes auch mit der Endung gif hätte laufen können, wenn ich alle anderen gifs ebenso von einem Script hätte senden lassen. Das hätte niemand bemerkt. Für google oder die anderen großen ist das kein Problem einen einzelnen Rechner nur für solche Aufrufe zu hosten. Das Log das mein script schrieb hat alle relevanten Daten protokolliert welche ich haben wollte. Und wenn ich dazu eine Statistik-Soft geschrieben hätte wäre es kein Problem gewesen das Surf-Verhalten der Besucher genauestens zu analysieren, also wann wer wo wielange war und woher er kam, welche internen Links er angeklickt hat und welches seine erste und letzte besuchte Seite war, aber auch wie oft er wiedergekommen ist, wenn ich dabei die Browserkennung in Relation zum ip-Bereich gesetzt hätte.

      Wenn ich dann den Inhalt der Seiten geschickt gewählt hätte und einbezihe in die Statistik könnte ich herausfinden wie interessiert derjenige an bestimmte Themen ist und dementsprechend könnte ich sogar psychologische, soziale und wirtschaftliche Einschätzungen durchführen.
      Der eigentiche Script war nur eine halbe Seite perlcode und die Protokollierung und Auswertung vielleicht 10 Seiten. Eine Statistik soft dazu wären vielleicht nochmal 50-100 Seiten. Mehr ist für sowas nicht nötig.



      So etwas in viel ausgefeilterer Form macht Google längst (auch für andere Webseiten-Betreiber; man informiere sich über "Google Analytics"). Dass dies auch für andere Webseiten möglich ist, wird extrem dadurch erleichtert, dass die Webstandards unter bestimmten Umständen eine Verletzung der Same-Origin-Policy erlauben. Findet selbst heraus, für welche Firma Ian Hickson, der Editor hinter dem HTML(5)-Standard
      > whatwg.org/specs/web-apps/current-work/multipage/
      arbeitet..
      Erst wenn der letzte Programmierer eingesperrt und die letzte Idee patentiert ist, werdet ihr merken, dass Anwälte nicht programmieren können.
    • Also, ich kann es nicht mit meinem Gewissen vereinbaren weiterhin hier tätig zu sein, solange facebook meine Aktivität hier überwachen kann. Ich werde zwar meinen Account nicht löschen, aber mich sehr zurückhalten und nur per PN auf Beiträge zu dem, was ich hier geschrieben hab reagieren. Auch wenn selbst auf der PN-Seite eine google-Anzeige zu sehen ist. Damit bin ich zwar einen Kompromiss eingegangen, aber ich lasse die Tür auf, damit sich hier etwas ändern kann. Vielleicht lasse ich mich ja sogar noch ab und zu dazu hinreissen nach Abwägung der Vor- und Nachteile weitere Arbeiten hier reinzustellen, aber das muß ich jetzt nicht entscheiden. Ich bin nämlich eigentlich kein Prinzipienreiter.

      Zumindest setze ich so erstmal ein Zeichen.
      Ob Abraxas und andere darauf reagieren werden, ist ihre eigene Entscheidung und auch ihre Verantwortung.

      Vielleicht gibt es ja auch die technische Möglichkeit das im Profil eine Einstellung untergebracht wird die die entsprechenden Buttons, Scripte und links deaktiviert, sodaß jeder Benutzer selbst entscheiden kann ob er sie sehen und/oder benutzen will. Theoretisch ist das möglich. Vielleicht sogar sehr einfach indem ein entsprechender Template-Satz angeboten wird.

      Wir werden sehen.

      Viele Grüße an alle.
      freierMilan

      Nachtrag: Gerade habe ich im Profil festgestellt das wenigstens die social Bookmarks ausgeschaltet werden können. Leider aber nicht facebook gefällt und Twitter. Sehr schade.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von freierMilan ()

    • Wie schon geschrieben, er muss keine Knöpfe drücken:

      sooma schrieb:

      [...] Fakt ist, - und damit nochmal zum Ausgang der Diskussion - dass wenn man eine Seite besucht, die den "Gefällt-Mir-Knopf" von Facebook enthält, die selben Daten an Facebook übertragen werden, die auch übertragen werden würden, wenn man Facebook direkt aufrufen würden, u.a.:
      • Hostname des zugreifenden Rechners (IP-Adresse)
      • Referrer URL (die zuvor besuchte Seite)
      • Browsertyp, -version und Betriebssystem
      • Bildschirmauflösung
      • Installierte Plugins (z.B. Flash)
      Dazu muss man weder bei Facebook angemeldet sein oder jemals deren Seite(n) besucht haben noch den "Like-Button" geklickt haben - heisst für hier: jeder Besuch z.B. auf der Portalseite übermittelt diese Daten.

      @Zukunftsvisionen gibt es derzeit hier: transmediale.11 | RESPONSE:ABILITY
    • Welchen Sinn macht es sich zu beschweren,
      in einem "öffentlichen" Forum, dass die Inhalte die man schreibt,
      gelesen werden?

      Sollte man nicht eher eigenverantwortlich darauf achten, wie man mit seinen Daten umgeht und
      was man ins Netz stellt? Wer Bilder von der letzten Sauftour auf Malle ins Netz stellt,
      braucht sich nicht wundern, wenn es auch andere sehen.

      Aber eins ist richtig. Der Datenschutz muss verbessert werden,
      so dass Unternehmen nicht einfach ohne Erlaubnis des Dateninhabers
      diese an dritte weitergeben und verkaufen oder man plötzlich viel Werbung bekommt.

      Nun wenn die Qualität der Beiträge hier sehr gut ist, dann wird das die Leute eher zum Forum
      kommen lassen als umgekehrt, da bei Facebook nicht die kompletten Inhalte angezeigt werden.
      Social Networking kann man auch positiv nutzen, wenn man es versteht, nix böses ausheckt oder Phobien hat.
      Die Vollkommenheit ist unerreichbar. Gewiß ist die Vollkommenheit unerreichbar. Sie hat nur den Sinn, deinen Weg wie ein Stern zu leiten. Sie ist Richtung und Streben auf etwas hin.
      - Antoine de Saint-Exupéry, Die Stadt in der Wüste
    • Hallo Abraxas,
      du scheinst mich grundlegend mißverstanden zu haben.

      Abraxas schrieb:

      Welchen Sinn macht es sich zu beschweren,
      in einem "öffentlichen" Forum, dass die Inhalte die man schreibt,
      gelesen werden?

      Ich habe nichts dagegen gelesen zu werden im Gegenteil.

      Abraxas schrieb:

      Sollte man nicht eher eigenverantwortlich darauf achten, wie man mit seinen Daten umgeht und
      was man ins Netz stellt? Wer Bilder von der letzten Sauftour auf Malle ins Netz stellt,
      braucht sich nicht wundern, wenn es auch andere sehen.

      Facebook-Button machen es mir unmöglich eigenverantwortlich auf meine Daten zu achten.

      Aber eins ist richtig. Der Datenschutz muss verbessert werden,
      so dass Unternehmen nicht einfach ohne Erlaubnis des Dateninhabers
      diese an dritte weitergeben und verkaufen oder man plötzlich viel Werbung bekommt.

      Wenn ich das Forum als Unternehmen von dir betrachte, machst du genau das. Du erlaubst sowohl Facebook als auch google mein Surf-Verhalten zu studieren, ohne das ich je eine Zustimmung dazu gegeben habe und das gilt ebenso für alle die, die nicht einmal angemeldet sind; sie können in ihrem Verhalten durch diese Button gescannt werden.

      Nun wenn die Qualität der Beiträge hier sehr gut ist, dann wird das die Leute eher zum Forum
      kommen lassen als umgekehrt, da bei Facebook nicht die kompletten Inhalte angezeigt werden.
      Social Networking kann man auch positiv nutzen, wenn man es versteht, nix böses ausheckt oder Phobien hat.


      Sorry ich finde es unmöglich die berechtigte Kritik in eine derartige Ecke zu schieben.

      Nochmal im Klartext. Ich habe dir keine Zustimmung gegeben, das du meine Daten an facebook oder google weiterleitest. Ich werfe dir nicht vor, das du nun daher gehst und meine Daten da hinschickst, sondern du nimmst es billigend in Kauf, das meine Daten per eingebundene Button und Scripte an diese Damen und Herren Überwacher automatisch gesendet werden. Das nennt man fahrlässiges Handeln.

      Da den meisten dies überhaupt nicht bewußt ist, habe ich extra diesen Thread begonnen um aufzuklären welche Bedeutung das hat. Ich gebe mir Mühe sachlich die Angelegenheit zu betrachten und ich glaube nicht, das ich von der Sachlichkeit abgewichen bin.

      Umsomehr verwundert es mich, das du einerseits von Selbstverantwortung schreibst und andererseits aber über derartige Fahrlässigkeit hinweg schaust. Da ja eine Selbstverantwortlichkeit von mir nicht mehr wahrgenommen werden kann - oder habe ich die Möglichkeit die facebook-Button und den Twitter-Button auszuschalten, wie die social bookmarks? - liegt es an dir etwas zu tun.

      Ich habe also keine Wahl und deshalb liegt es in deiner Verantwortung entweder Abhilfe zu schaffen oder aber dazu zu stehen, das du bewußt das Verhalten der Surfer scanbar machen willst.

      Und mehr will ich nicht erreichen mit meiner Kritik.

      Wer sich bewußt ist was er tut, muß es auch verantworten.
    • Ich hab das vor ner Weile auch schon beobachtet mit Facebook und co, zum einen, dass es viele selbsternannte Aufklärer gibt, die diese Medien nutzen aber auf der anderen Seite auch immer davor warnen, wenn ich dann frage, wie sich das damit vereinbaren lässt, dass man sich vom angeblichen Feind kontrollieren lässt, dann kommen nur dumme Sprüche von wegen "Man muss das ja nutzen um die Leute zu erreichen, um sie dann aufwecken zu können" usw aber ich finde, um auf Facebook zu sein muss man schon so tief geschlafen haben, da hilft dann auch kein Aufwecken mehr, schon garnicht von Leuten die ständig mit schlechtem Beispiel vorran gehen. Jeder der dort ist wurde schon manipuliert und wenn so jemand sich weigert, diese Wahrheit anzuerkennen, dann ist sowieso schon jede Hoffnung verloren.
    • Bersenker schrieb:

      dann kommen nur dumme Sprüche von wegen "Man muss das ja nutzen um die Leute zu erreichen, um sie dann aufwecken zu können" usw

      Was hilft es den Hungernden in den Drittweltländern, wenn du in Deutschland kostenloses Brot verteilst? Die wissen da gar nichts davon und selbst wenn sie davon wüssten, kämen sie nicht einfach so mal eben vorbei um sich eins mitzunehmen.
      Aber du sprichst ja hier von Argumenten. Also warum ist es ein blöder Spruch, wenn man sagt, dass man seine Zielgruppe irgendwie erreichen muss?
      Wo wir sind, da ist immer auch Ägypten.
      ~☤~
    • Das wäre, wie wenn das Deutsche Rote Kreuz in Afrika beim Verteilen von Hilfslieferungen plötzlich selbst am Verhungern wäre. Sowas kann natürlich im schlimmsten Fall passieren, tut es aber nicht, wenn man es ein bisschen schlau anstellt.

      Ich habe jetzt ein bisschen den Advocatus Diaboli gespielt. Jetzt ergreife ich mal für die andere Seite Partei.

      Man kann die Leute im Internet immer noch auch ohne Facebook erreichen. Man kann seine Kampagne auf freie Netzwerke ausweiten (habe schon hier welche erwähnt), die vielleicht noch nicht die Reichweite der datenschutzrechtlich bedenklichen Netzwerke haben, die aber durch solche Aktionen wachsen werden. Über gute Suchmaschinenoptimierung, Rückverknüpfungen und interessante Themen erreicht man die Leute, die überhaupt etwas damit anfangen können, was man ihnen vermitteln will. Und diese Leute dienen dann sehr schnell als Multiplikator. Durch die Vermeidung von zweifelhaften Plattformen gewinnt man bei seiner Zielgruppe an Glaubwürdigkeit und das ist es, was in diesem Netz voller Unwahrheiten zählt.
      Wo wir sind, da ist immer auch Ägypten.
      ~☤~