Beiträge von Nubok


    Ein Punkt in der Raumzeit ist beschrieben durch (x, y, z, t). Jetzt geht obiges der Erfahrung nach nicht mehr. Man kann sich nicht so bewegen das man den Punkt wieder erreicht. Zumindest in diesem Universum nicht. Es gibt theoretischen Konzeptionen von Universen, wo auch das möglich ist. Das Gödeluniversum. Wir leben aber nicht in einem Gödeluniversum, die Welt die dieses Universum beschreibt, passt nicht zu der, die wir beobachten.

    Das Gödeluniversum ist eine mögliche Lösung der Gleichungen der Allgemeinen Relativitätstheorie, in welcher geschlossene Zeitkurven auftreten. In der theoretischen Physik (ließ beispielsweise Stephen Hawkings "Das Universum in einer Nussschale") wird aber längst darüber nachgedacht, ob im Bereich des absoluten Mikrokosmos nicht möglicherweise geschlossene Zeitkurven nichts unübliches sind.
    Bislang hat man keine geschlossenen Zeitkurven beobachtet. Die ART macht aber hierzu auch sehr präzise Angaben über Energiemengen, die erforderlich sind, um solche künstlich zu erzeugen - und diese Energiemengen kann kein aktueller Teilchenbeschleuniger erzeugen.


    Erst einmal vorne weg, ich bin kein Psycho-Eso. Ich glaube auch nicht, Nubok, dass man das mit Mathematik beweisen kann. Ich denke, dass man als Voraussetzung sehen muß, dass das Geistige ursächlich für das Materielle ist.

    Jo

    Ich glaube, du hast die Herangehensweise, die mir vorschwebt, nicht ganz verstanden. Das Problem bei den Texten aus dem esoterischen Bereich ist: entweder man glaubt daran oder nicht. Mit geht es darum: wie kann man äußerst starke Indizien dafür finden, dass tatsächlich auf höheres Wissen zurückgegriffen wurde bzw. der Urheber der Texte über solches verfügte?

    Die Antwort darauf lautet meines Erachtens: wenn mittels esoterischen Methoden (wie diese auch immer aussehen mögen) Lösungen für wissenschaftliche Probleme, an denen sich weltweit Forscher seit vielen Jahren die Zähne ausbeißen, gefunden werden, so wäre dies ein eindeutiges Zeichen.

    Warum ausgerechnet Mathematik? Die Antwort hierauf lautet, dass man in Mathematik (als Strukturwissenschaft) über Möglichkeiten der Verifizierung verfügen (in Form des mathematischen Beweises). Es kann also (Physiker mögen mir die folgende kleine Spitze bitte verzeihen) nicht (wie es bei "Freie-Energie-Maschinen" immer wieder passiert) jemand herkommen und sagen: das Ergebnis widerspricht in Punkt Bla "überprüftem" Wissen.
    Stattdessen ist die Situation derart, dass wenn der mathematische Beweis als korrekt überprüft wurde, niemand mit Argumenten a la "Widerspruch zu etablierten Forschungsergebnissen" kommen kann (denn sonst wäre der Beweis eben nicht korrekt, was wir ja bereits ausgeschlossen haben).

    Wenn somit mit dieser wissenschaftlichen Methode schwer anzweifelbar festgestellt wurde, dass die Person tatsächlich Zugriff auf höheres Wissen verfügt - dann würden sicher auch viele bereit sein zuzuhören.


    Einen Beweis zu prüfen ist ziemlich oft deutlich einfacher als ihn zu finden.

    Beispiel: Die Faktorisierung von großen Zahlen.
    http://www.rsa.com/rsalabs/node.asp?id=2093
    RSA wird als sehr sicher angesehen, weil niemand eine einfache Möglichkeit gefunden hat, diese Zahlen zu faktorisieren. Das Nachprüfen einer Faktorisierung ist aber die einfache Aufgabe, die Faktoren einfach zu multiplizieren.

    Deshalb wäre zum Beispiel die spontane Nennung der Faktoren von RSA-704 eine ziemlich eindrucksvolle Demonstration.

    So ein ähnliches Argument habe ich unter Möglichkeit Existenz von "geistigen Wissensspeichern" nachzuweisen (ich habe einen neuen Thread aufgemacht, da es langsam hier Off Topic wird) aufgestellt.

    Ich dachte eher an Vermutungen aus der "reinen" Mathematik, aber das Beispiel mit den RSA-Schlüsseln gefällt mir auch. :)

    In https://aufzurwahrheit.com/gedankeng-nge/….html#post63542 schreibt Bkid

    Zitat


    es gibt gigantische geistige wissensspeicher aber um sie zubedienen muss man von viele galubenssätzen sich befreien. da die glaubenssätze wirken wie die filter und verzeren die information.


    Da ich prinzipiell gegenüber solchen Möglichkeiten sehr offen bin, habe ich seit Jahren darüber nachgedacht, wie man die Existenz von etwas Derartigem nachweisen könnte.

    Ich behaupte eine Möglichkeit dazu gefunden zu haben. Diese läuft folgerndermaßen ab:

    In der (modernen) Mathematik (nicht zu verwechseln mit dem gleichnamigen Schulfach) gibt es zahlreiche offene Vermutungen (ich möchte an dieser Stelle keine aufzählen), an denen sich die Forscher seit Jahrzehnten auf der Suche nach einem mathematisch formal korrekten Beweis der Korrektheit oder Inkorrektheit der Vermutungen aufs Härteste die Zähne ausbeißen. Und das, obwohl teilweise hohe Geldprämien darauf angesetzt wurden.

    Wenn es also "gigantische [color=#666666]geistige Wissensspeicher" gibt, die man nur anzapfen muss (natürlich im geeigneten geistigen Zustand etc. - aber wie ihr das macht, ist euch absolut freigestellt), sollte es doch an sich kein Problem darstellen, aus diesen Wissensspeichern einen [/color]formal korrekten [color=#666666]Beweis über die Korrektheit oder Inkorrektheit einer solchen Vermutung "herauszuzapfen".[/color]
    [color=#666666]Mein Angebot: ich würde ein paar solcher Vermutungen (2-3 könnte ich selbst liefern, aber ich will ja fairerweise eine größere Auswahl lassen) besorgen (indem ich Mathematik-Professoren, die auf entsprechenden Gebieten arbeiten, nach den größten ungelösten Problemen in ihren Arbeitsgebieten ausfrage - möglichst Probleme, die auch für Leute, die kein struktur- oder naturwissenschaftliches Studium hinter sich haben, verständlich sind).[/color]
    [color=#666666]Würde jemand von der "Esoterik-Fraktion" (nicht negativ gemeint!) darauf eingehen?[/color]

    Also die Wissenschaftler haben durchaus gemessen, dass es in letzter Zeit zu einem Nachlassen des Golfstroms kam. Natürlich ist (was denn sonst!) der Klimawandel Schuld ;)

    Zurück zur seriösen Wissenschaft: es ist tatsächlich so, dass Verschiebungen im Golfstrom als mögliche Auswirkung des Klimawandels schon seit langem durchgerechnet wurden. Wissenschaft ist (auch wenn die Medien noch so sehr einen gegenteiligen Eindruck erwecken) immer ein Prüfen von Theorien.

    http://www.spiegel.de/wissenschaft/n…,387715,00.html

    Aufgrund dieser Tatsache (aktuelles Nachlassen des Golfstroms, aufgrund dem es ja bekanntlich in Europa deutlich wärmer ist, als es vom Breitengrad her anzunehmen ist) haben russische Wissenschaftler durchaus vorhergesehen, dass dieser Winter ziemlich kalt werden wird:

    http://rt.com/news/prime-tim…gency-measures/

    Wir haben dieses Spiel in der deutschen Übersetzung auf einem Informatik-Spieleabend (die zum damaligen Zeitpunkt als "Regel" hatten, dass ausschließlich Brett- und Kartenspiele (Computer- und Konsolenspiele verboten) gespielt werden dürfen) gespielt (in der deutschen Version). Zu beachten ist, dass in der deutschen Übersetzung dieses Spiels viele Karten abgeändert wurden (ich kann mich leider nicht mehr an Details erinnern).

    Leider kann ich kein Russisch. Könnte den zitierten Originalartikel jemand übersetzen?

    Hm - hast du einen vernünftige Architektur (als UML)? Wenn du dritte zum mitmachen animieren möchtest, wäre das ein wichtiger Schritt. Sich durch große Mengen fremden Code einzulesen ist sehr umständlich. Eine saubere Softwarearchitektur bringt auch andere Vorzüge mit sich. Ich hänge nicht in der Informatik des Internets drinne (allgemein nicht in den höheren Gefilden des OSI-Modelles), aber Kleinigkeiten könnte ich ja coden - nur würde ich mich nicht ins gesamte Projekt einlesen wollen.

    Einige UML-Diagramme existieren (auch wenn sie nicht auf dem aktuellen Stand sind). Das XMI-Modell dazu befindet sich in https://github.com/nubok/101_browser/tree/windows/src_xmi

    Die Datei https://github.com/nubok/101_brow…pListParser.cpp wird übrigens automatisch aus dem UML-Modell erzeugt. :)

    Muss mal schauen, dass daraus "schöne" Diagramme gezaubert werden.

    Außerdem habe ich mit Dokumentation begonnen: https://github.com/nubok/101_brow…rowser_book.tex Ist allerdings kaum etwas bislang da. :(

    Wo ich am allermeisten auf Hilfe angewiesen bin (da sehr viel Arbeit, die aber auch durch andere übernommen werden kann): der riesige HTML5-Standard: http://www.whatwg.org/specs/web-apps/current-work/multipage/ (ja, ich finde diesen extrem riesigen, monolithischen Standard misslungen) soll in der Bibliothek HTML5 codiert werden.

    Warum ich diese Aufgabe auch für Außenstehende einfacher (?) möglich? Wenn du dir den Quellcode https://github.com/nubok/101_browser/tree/windows/src/HTML5 und https://github.com/nubok/101_brow…s/include/HTML5 dieser Teilbibliothek anschaust, wirst du feststellen, dass der Quellcode und die Funktionen darin nach den Kapiteln des Standards benannt sind und sich auch dementsprechend verhalten (lediglich baue ich aus Performance-Gründen keine Substrings, sondern verwende Iteratoren, die mitteilen, wann keine neuen Zeichen mehr zu parsen sind).

    Dazu dann immer Testfälle bauen (Bibliothek: TestSuite, Datei https://github.com/nubok/101_brow…te/Test_HTML5.c ), so dass - wenn irgendwie möglich - möglichst 100% Line Coverage der Funktionen erreicht wird.

    Zitat


    Was mir noch so auffällt: Ein wichtiger Punkt war/ist wohl der Spaß an der Freude zu sein und einen eigenen Browser zu haben, wenn ich das mal so aus deinen Code herauslesen darf.

    Gruß

    Das natürlich auch :) Und meine genannte Frustration mit existierenden Browsern, wo ich der Meinung war: das kann ich besser ;) . Zur Produktivität verholfen hat auch - wie schon im Post davor genannt - die Tatsache, dass ganz am Ende nur noch wenige Prüfungen im Studium zu erledigen sind, aber ich gleichzeitig mit der Zukunft frustriert bin.

    ich hab da einen interessanten "industrieregler" welcher als energiespar-regler mit webbrowser und datenlogging funktioniert. um hier die graphische oberfläche nutzen zu können (z. b. http//http://www.m0050c21e2333.digienergy.info) habe ich die möglichkeit einen laptop direkt anzustöpseln oder dieses gerät mit dem RJ45 an das hauseigene netzwerk anzuschließen - so wurde das von den entwicklern dieses geräts auch vor-gesehen. der grundlegende gedanke hier war, dass ohne zusätzliche software, von jedem ort der welt aus dieser regler erreichbar und alle funktionen "fernbedienbar" sind - einfach und genial ....

    alternativ kann ich mir vorstellen hier dieses gerät auch mit einem einfachen "touchpanel (pc)" als fernbedienung zu betreiben. hierzu müsste man ein betriebssystem und einen webbrowser installieren. somit könnte dieses gebäude- und energiemanegemant system autark, und sicher vor angriffen aus dem netz betrieben werden - entsprechende sicherheitslevel nach bedarf.

    eine light-version deines browsers wäre denkbar, denn eigentlich bräuchte ich "nur" ein bedienteil mit graphischer oberfläche. je einfacher, je unkomplizierter, je sicherer und stabiler diese software (als schnittstelle) funktioniert, desto besser. damit wären die voraussetzungen geschaffen hier zu einem "relativ" günstigem preis einfach "nur" ein fernbedien-tableau ergänzend anzustöpseln.


    Auch wenn ich jetzt "Konkurrenzprodukte" empfehle: schau dir mal Webkit (http://webkit.org/) an - die Browserengine hinter Safari und Chrome.
    Auch wenn ich (neben den bereits genannten Schwachstellen) eine andere Meinung bezüglich Prioritäten (lieber erst einmal Fehler in der Implementierung von paar älteren und seltener genutzten Standards beseitigen, statt permanent dem letzten Schrei hinterherzurennen) und Architektur (Webkit ist im Aufbau deutlich monolithischer, während bei 101_browser die Funktionalität auf sehr viele kleine Komponten verteilt wird, so dass man 101_browser viel einfacher an ) habe - es gibt viele Leute im Internet, die sagen, dass von den aktuellen Browserengines Webkit die ist, die man am einfachsten in eigene Anwendungen einbinden kann (jedenfalls einfacher als Gecko - die Engine hinter Firefox ;) ).

    Zitat


    doch was NOCH beachten musst, IST dein eigener aufwand ....
    jegliche programmierarbeit und softwareaktualisierung erfordert einen zeitlichen aufwand. zeit ist geld .... auch DU kannst nicht von trocken brot alleine leben.

    google, wikipiedia, firefox .... durchaus beispiele die das eindrucksvoll auf-zeigen. wenn ein produkt für den "consumer" nichts "kosten" soll, dann müssen entweder "spenden" oder werbe-einnahmen den finanziellen aufwand abdecken, der erforderlich ist um ein produkt oder eine idee immer wieder "anzupassen". oder dein produkt kostet einmalig die summe X,XX Euro und wird von menschen genutzt, die auch bereit für deine "leistung" auch ein klein wenig den "beutel" zu öffnen ^^

    Da bist du in der Tat bei mir an einem sehr wunden Punkt. Lass es mich so erklären: ich werde hoffentlich in absehbarer Zeit mit dem Studium (Mathematik, Informatik) fertig. Auch wenn zahlreiche Politiker/Vorsitzende von Wirtschaftsverbänden noch so sehr behaupten, wie sehr Deutschland/die deutsche Wirtschaft Spitzenkräfte braucht: ich bin ein Mensch, der sich sehr schnell extrem unterfordert fühlt und dann aus Langeweile sehr fies werden kann.
    Ich liebe die Situation, wie sie im Studium ist: aufs Äußerste anspruchsvolle Aufgaben, an denen man sich "festkrallen" kann und idealerweise noch einen Idealismus ausleben kann. Wenn dies der Fall ist, kann ich Workaholic sein.
    Leider wollen sie "in der Praxis" - auch wenn die "Schlaumeier der Politik/Wirtschaftsverbände" noch so sehr oben Genanntes behaupten - im wesentlichen Typen, die langweilige brav durchorganisierte Routine abarbeiten - und dagegen habe ich etwas.
    Am allerschlimmsten finde ich aber die genannte Heuchelei: wenn in einer Stellenanzeige steht: "Sie suchen (neue) Herausforderungen" und in Wirklichkeit wollen sie einen weiteren stromlinienförmigen "Arbeitsroboter" - da kriege ich echt Wutanfälle.

    Zu dem Thema könnte ich Stunden schreiben, daher nur meine Kurzzusammenfassung: gegen Überforderung im Beruf kann man etwas tun: nämlich sich hinsetzen und lernen. Gegen Unterforderung kann man nichts tun.

    Die meisten Arbeiten an 101_browser erfolgten nach dem Pflichtpraktikum als Mittel gegen Langeweile (auch wenn es für andere Menschen anders erschien: meine Motivation im Studium sank, da ich sah, dass mich nach dem Studium nichts Motivierendes erwartet - auch wenn sich der Chef allergrößte Mühe gab, die schwierigsten Programmierprobleme an mich zu delegieren).

    Es gibt viele Bekannte, die sagen, dass ich in die Wissenschaft gehöre. Wahrscheinlich werde ich auch versuchen meinen Doktor zu machen. Das Problem ist: dannach wird es nach einhelliger Meinung sehr schwierig. Eigentlich alle versuchen dannach irgendwo außerhalb der Wissenschaft unterzukommen. Einige wegen des Geldes (was ich respektiere). Die meisten deswegen, weil es dannach in der Wissenschaft nur noch 1-bis-2-Jahresverträge gibt (was ich voll verstehen kann).

    Wenn es eine Möglichkeit gibt, die Entwicklung von 101_browser zu monetarisieren (also jemand bereit ist heute Geld dafür zu bezahlen, dass das Produkt "benutzbar" ist) - perfekt.

    Als das zuerst zu lösende Problem betrachte ich es jedoch, nach dem Studium eine Arbeitsstelle zu finden, bei der ich nicht unter Unterforderung leiden muss und bei der ich einen relativ hohen Freiheitsgrad habe.

    Zitat

    Nach den DDoS-Attacken auf Wikileaks-Gegner gab es vor Anonymous kein Entkommen: Zahllose Medien berichteten über die Internet-Aktivisten, oft völlig falsch. Ein Interview, das [die c't-Redaktion] per E-Mail mit Anonymous-Mitstreitern geführt ha[t], klärt die Hintergründe der Protestbewegung.

    Anonymous betont: "Die Aussagen und Meinungen dieses Interviews entsprechen nicht der Sichtweise aller Anonymous. Dies ist prinzipbedingt nicht möglich, wie wir in den Antworten auf die Fragen genauer erklären. Die Aussagen entsprechen aber den Ansichten vieler Anonymous und wurden auch mit mehreren stark in die Bewegung involvierten Personen abgestimmt."

    Das sehr interessante Interview könnt ihr unter http://www.heise.de/ct/artikel/Ano…ch-1154156.html lesen.

    Da von Sonnenblume und Ich bin´s der Wunsch kam, habe ich zu meinem ersten Projekt 101_browser einen Thread erstellt:

    101_browser

    Beachtet jedoch wirklich: frühestens in ein paar Jahren gibt es wohl etwas interessantes zu sehen.

    Zum zweiten Projekt werde ich auch noch in nächster Zeit etwas schreiben...

    Ursprünglich hatte ich vor, meine Software-Projekte nur per PN zu diskutieren, da sie wirklich nicht weit genug sind, aber da im Thread An alle Mitglieder!!! die Bitte kam - hier habt ihr Details des ersten Projekts :)

    Im wesentlichen sind es zwei Projekte: in das eine habe ich schon viel Programmierzeit hinein investiert, das andere existiert im wesentlichen (wenn auch mindestens genauso lange) in meinem Kopf.

    In diesem Thread will ich das erste Projekt, welches ich auf den Namen 101_browser getauft habe, erläutern. Gehostet ist es auf Github: https://github.com/nubok/101_browser

    Um in wenigen Worten zu beschreiben, was es ist: ein Versuch meinen eigenen Webbrowser zu implementieren.

    Nun aber die lange Geschichte:

    Bei mir entstand eine zunehmende Frustration darüber, dass die existierenden Webbrowser immer mehr das WWW in Richtung Konsummedium propagieren. Dies lässt sich sehr gut an der Kette

    Mozilla Suite -> Mozilla Firefox -> Google Chrome

    von Browsern ablesen. Jede "Generation" lässt dem Anwender weniger Freiheiten bzw. versteckt die Konfigurationsoptionen immer mehr. Der Nutzer soll nicht basteln, sondern konsumieren.

    Warum nicht stattdessen einen Browser schaffen, welcher dem Nutzer derart mächtige Freiheiten gibt, dass er für die Serverbetreiber gefährlich werden könnte? Nur um zu demonstrieren, dass ich vielleicht ein wenig Sprüche klopfe ;) , aber nicht maßlos übertreibe: während der Entwicklung von 101_browser ist es mir gelungen mittels der bereits entwickelten Werkzeuge auf den Servern von Google eine Schwachstelle (auch wenn diese ehrlicherweise kaum für praktische Angriffe ausnutzbar ist) zu finden (welche allerdings längst beseitigt ist, da ich das Google Security Team (die wirklich kompetent sind) darüber informiert habe). Mehr dazu weiter unten.

    Aber von Anfang an: wusstet ihr, wie viele Informationen euer Browser freiwillig über euch herausgibt: wer mutig ist ;) , kann mal unter https://panopticlick.eff.org/ testen, wie identifizierbar er im Netz ist und wie viele Informationen der Browser über euch ohne Rückfrage ins Netz sendet (und dabei werden gar nicht mal Standard-Methoden zum Tracking, wie Cookies oder gar Supercookies etc. eingesetzt). Also ich würde eine Software, die solche Massen an Informationen über mich in alle Welt hinausposaunt und das ohne Rückfrage eher als Schadsoftware einstufen. Aber die Webstandards schreiben ein solches Verhalten vor...

    Eine Möglichkeit, die ein Tracking auch durch fremde Firmen (ohne, dass der Seitenbetreiber die Daten weitergibt, was ihn datenschutzrechtlich in die Zwickmühle brächte - nein, euer Browser, der auf *eurem Rechner* läuft, macht das für euch) bildet die Tatsache, dass in den Webstandards es Ausnahmen zur Same-Origin-Policy gibt. Dass diese brav drinbleiben - darum wird sich schon gekümmert etc. - schließlich gibt es Firmen, die diese Ausnahmen brauchen, um Nutzer tracken zu können.

    Interessanterweise führen diese immer wieder zu massiven Sicherheitslücken (z. B. XSS). Des Weiteren hat Microsoft im Rahmen eines Forschungsprojektes einen Browser namens Gazelle entwickelt: http://research.microsoft.com/apps/pubs/default.aspx?id=79655 , der überall Same-Origin-Policy einfordert.

    Warum also nicht gleich so und mehr potentielle Sicherheit und Datenschutz auf einmal? Schließlich ist es meine Auffassung, dass Datenschutz wichtiger ist als Erfüllung von Webstandards. :)

    Das Problem ist, dies würde zu Problemen mit existierenden Webseiten führen, die auf die Erfüllung der Standards seitens der Browser vertrauen. Meine Meinung dazu: dem Nutzer Möglichkeit geben für einzelne Websites Ausnahmen zu definieren (inklusive Möglichkeit des permanenten White- und Blacklistings von Servern). Anschließend sollen die Nutzer durch den dadurch bedingten Aufwand ruhig am eigenen Leib merken, wie sehr sie getrackt werden bzw. das möglich ist.

    Doch auch die Funktionen, die eingeführt wurden, um Sicherheit bei dem (erlaubtem) Bruch der Same-Origin-Policy zu gewährleisten, sind nicht ohne. Es gibt in den Standards eine Funktion, die es erlaubt, dass der Server A für Ajax-Aufrufe auf Server B machen kann, nachdem Server B dem Browser bestätigt, dass es zulässig ist. Warum das eingeführt wurde? Es gibt Firmen, die haben ein Interesse daran.

    Auf den ersten Blick scheint es mehr Sicherheit zu gewährleisten. Auf den zweiten Blick wird hierdurch eine Form von DRM im Web geschaffen - denn hierdurch hat der Serverbetreiber von Server B die Macht, dass nur "zahlende" Website-Betreiber auf seine Services zugreifen können. Wollt ihr das?

    Nächster Punkt: Geolocation. Firefox, Opera und Chrome implementieren in ihren aktuellen Versionen eine Möglichkeit den Ort des Betrachters herauszufinden. Die technischen Details dazu (sowie deren Genauigkeit, Schwächen und Datenschutzprobleme) findet ihr am besten selbst heraus - ich möchte hier nicht weiter hetzen...

    Meine propagierte Lösung (teilweise implementiert): viele GPS-Empfänger lassen sich mit ein paar Programmiertricks zu einer GPS-Mouse umfunktionieren. Dies ist sowohl erheblich präziser, als auch datenschutzfreundlicher, da keine Daten an den Provider des Geolocation-Services übertragen werden. Wer Geolocation als sinnvoll betrachtet, wird auch noch das Geld für einen GPS-Empfänger besitzen...

    Ich könnte noch ewig darüber schreiben, aber ich habe ja oben versprochen, etwas zum Thema mächtige Möglichkeiten für den Nutzer zu notieren.

    Erstes Beispiel: das Webframework Google Web Toolkit hat bei der Codeerzeugung die Eigenschaft, dass die Daten verifizierenden Codeteile zwei mal erzeugt werden: einmal für den Server Part (aus obligatorischen Sicherheitsgründen darf man grundsätzlich nicht darauf vertrauten, dass der Client keine maliziösen Daten sendet), aber ein zweites mal für den Client Part (damit die Webapplikation "schnell reagiert").

    Auch bei Webapplikationen, die nicht auf Google Web Toolkit aufbauen, sind derartige Codeteile im Allgemeinen zwei mal vorhanden (allerdings werden sie dann meistens zwei mal programmiert).

    Was hat dies für eine Konsequenz? Man kann den existierenden Code prima nutzen, um Strukturen zu erkennen. Wie wäre es beispielsweise, wenn aus dem Code automatisch UML-Diagramme o. ä. gebaut werden? ;)

    Zweites Beispiel: Ein sehr mächtiges Werkzeug zum Finden von Fehlern in Anwendungen ist das sogenannte Reverse Debugging. Bei klassischem Debugging führt man ein Programm aus und wartet, bis der Fehler auftritt. Anschließend versucht man (meistens durch noch mehrmaliges Ausführen) herauszufinden, wie es zu diesem Fehler kam.

    Reverse Debugging funktioniert ein wenig anders (viel eleganter!): man lässt das Programm laufen, bis der Fehler auftritt. Wenn dies geschehen ist, lässt man von diesem Punkt das Programm rückwärts (!) laufen (z. B. schrittweise) und kann so direkt nachvollziehen, wie es zu diesem Fehler kommen konnte.

    Das Prinzip selbst ist seit langem bekannt und Rechner sind heute längst leistungsfähig genug, dies umzusetzen. Warum also dem Nutzer nicht dieses mächtige Werkzeug zum Finden von Fehlern in Webapplikationen in die Hand geben?

    Drittes Beispiel: während es üblich ist, dass man den (X)HTML-Code einer Webseite einfach betrachten kann, bieten existierende Browser kaum Möglichkeiten, andere Elemente (wie Grafiken) von Webseiten "wirklich zu analysieren". Ich werde mich mit dem Zitieren eines einzelnen Beispiels begnügen: http://de.wikipedia.org/wiki/Exchangea…gliche_Probleme

    Warum bieten existierende Browser dies nicht an? Der technische Grund liegt darin, dass die meisten Browser für Zwecke wie Lesen von Rasterbildern auf fertige Bibliotheken vertrauen (z. B. libpng für PNG), die ein Lesen von solchen Dateien als problemloses "Fertigpaket" anbieten. Für Analysezwecke reicht in meinen Augen jedoch kein Fertigpaket, sondern man muss sich selbst an die Arbeit machen.

    Es gäbe natürlich noch viel mehr zu erzählen, aber damit will ich es erst einmal auf sich beruhen lassen.

    Falls ich euch neugierig gemacht habe und ihr unter genannter Webseite (https://github.com/nubok/101_browser) nachschauen wollt, sei euch aber gesagt: ganz vieles befindet sich noch in einer sehr frühen Phase. Glaubt mir wirklich: es ist noch kaum etwas da, was für Nichtprogrammierer interessant ist.

    Dennoch für alle Interessierten:

    Aktuell besteht das Projekt aus 24-25 Projekten (unter Windows; unter Linux sind es ein paar weniger), von denen einige jedoch sehr klein/veraltet etc. sind und daher verschwinden werden. Dafür werden andere hinzukommen. Hier eine kurze Beschreibung:

    Algorithm: Implementierung von ein paar häufig benutzen Algorithmen, wie Binärsuche. Im Moment noch sehr klein

    BasicDataStructures: sollte eigentlich das werden, was nun Algorithm und IO ist. Mittlerweile Müllhalde, die irgendwann abgebaut bzw. in andere Projekte eingegliedert wird

    BigNumber: Bibliothek zum Umgang mit großen Zahlen. Wird immer dann erweitert

    CompilerBackend: Private Tests für dynamische Codeerzeugung. Wird erst einmal dringelassen, da der Code sicherlich noch in Zukunft Verwendung finden wird - wenn auch in anderer Form

    CoroutineWin/CoroutinePosix: da ich mich in letzter Zeit dafür entschieden habe, dass der Code stark auf Coroutinen (ein für viele Programmierer eher unbekanntes Feature) aufbauen soll, ist hier die Bibliothek dazu. Funktioniert seit ganz Kurzem sowohl unter Windows als auch unter Linux.

    CPU: Testen der CPU auf Features. Zukunft ungewiss

    FontServer: Verwalten von Schriften. Seit längerer Zeit nicht daran gearbeitet, aber zentrale Komponente

    GeolocationBackendGarminWin: Nutzung von einigen Navigationssystemen der Firma Garmin als GPS-Mouse

    GeolocationBackendGarminWinTest: Testcode für GeolocationBackendGarminWin, der, weil GeolocationBackendGarminWin und GeolocationBackendGarminWinTest noch nicht so weit sind, noch nicht in TestSuite aufgenommen wurde

    GIF: Lesen von GIF-Dateien - vieles funktioniert schon, aber es muss noch daran gearbeitet werden

    GuiWin/GuiX: Grafische Benutzeroberfläche. Seit längerem nicht daran gearbeitet; allerdings bietet es unter Windows das Feature der Unterstützung mehrerer Mäuse zugleich

    HTML5: sollte selbsterklärend sein. Leider noch sehr viel daran zu arbeiten :(

    IO: vereinheitlichte Bibliothek für alle Ein- und Ausgaben (Dateien, Netzwerk/Internet) und - ganz brandaktuell am daran arbeiten - Erstellen von Datenströmen zwischen Bibliotheken

    JpegDecoder: zugleich halbes Testprogramm als auch Leser für JEG-Dateien; muss noch einiges daran gearbeitet werden und dann in diese beiden Teile aufgespalten werden

    MiniStdlib: Wrapper um ein paar Headerdateien und Funktionen der Standard-Bibliothek

    NetworkWin/network_posix: Testcode für Netzwerkfunktionen und http; unter Windows noch nicht auf Visual Studio 2010 portiert, da anderes erst einmal wichtiger ist

    PdfReader: Lesen von PDF-Dateien. Kaum etwas vorhanden und lange nicht dran gearbeitet

    PNG: Lesen von PNG-Dateien; wird weiterentwickelt, wenn RFC1950 und RFC1951 funktionieren

    PNGTestSuite: Testcode für PNG; wenn PNG und PNGTestSuite soweit sind, wird es mit TestSuite verschmolzen

    RFC1950: Implementierung des ZLIB-Standards. Wird natürlich RFC1951 (DEFLATE) bald als Ergänzung brauchen ;)

    SwfReader: Code zum Lesen von SWF-Dateien (Flash)

    TestSuite: aktuell 2391 automatisch ausführbare Tests, die testen, ob sich das Programm (hoffentlich) fehlerfrei verhält

    Unicode: aktuell nur Code zum Parsen der Datei PropList.txt des Unicode 6.0-Standards. Wird erweitert, wenn es sich als erforderlich erweist

    XmlReader: Lesen von XML-Dateien. Praktisch nichts da.

    Und dann noch: zlib (die Standard-Implementierung), die ich jedoch durch meine eigene Implementierung RFC1950 und RFC1951 ersetze, sobald diese funktionieren.

    Die Frage ist, was möchtet ihr als Nutzer hier und wofür möchtet ihr das Forum nutzen?
    Ich darf mal an dieser Stelle anmerken, dass nur von den wenigsten hier konstruktive
    Vorschläge kommen oder Eigeninitiative, wie man die Plattform verbessert.

    Wenn aber etwas getan wird, dann ist die Maulerei groß.
    Also ich möchte das das AZW auch Nutzen hat, als nur
    für kritische Meinungsäußerungen, denn davon wird die Welt keinen Deut besser.

    Also was sind eure Vorschläge?


    Zum von dir angeprangerten "Problem", dass zu viele kritische Meinungsäußerungen, durch die die Welt nicht besser wird, muss ich, denke ich, ein wenig contra geben:

    Ich beispielsweise arbeite seit Jahren (und werde, wenn es die Zeit zulässt, die nächsten Jahre weiter daran arbeiten) hobbymäßig an einigen Software-Projekten, die durchaus Weltverbesserungspotential haben (behaupte ich mal ganz angeberisch ;) ). Könnte also rein thematisch ins Forum passen.

    Problem ist: um überhaupt die Probleme zu verstehen und zu verstehen, wie diese nach meiner Ansicht in ferner Zukunft (wenn ich soweit bin) gelöst werden, erfordert ein umfangreiches Wissen über Mathematik und Informatik.

    Daher würden es, wenn ich dazu etwas schreiben würde, die meisten Leser wohl allenfalls in Bruchteilen verstehen.

    --

    Ich glaube, dass es bei sehr vielen Projekten mit echtem Weltverbesserungspotential so ist: allein zu verstehen, worum es geht, geschweige denn zu verstehen, wie die Lösung aussieht, erfordert fast immer eine sehr umfangreiche Vorbildung.

    Daher glaube ich, dass es kein schlechtes Omen, sondern eine logische Konsequenz ist, dass viele kritische Meinungsäußerungen und wenig "Weltverbesserung" im Forum zu finden ist.

    Wie ich aber schon in einer Email an Abraxas klargestellt habe, werde ich erst einmal positiv abwarten, welche Pläne er hat. Im schlimmsten Fall kann ich immer noch aussteigen.

    Sonnenblume

    Soweit ich mich mit dem Thema auskenne (und das tue ich, denke ich - in den nächsten Monaten werde ich mich möglicherweise aber sowieso aus anderweitigen Gründen sehr detailliert mit dem Thema DNS beschäftigen), lässt sich zumindest das DNS-Caching extrem gut auf einen Cluster von Servern parallelisieren (was für viele Probleme in der Informatik in der Tat nicht gilt).

    Also (in Fachsprache ausgedrückt): DNS-Caching skaliert sehr gut horizontal.

    Und du glaubst gar nicht, wie schnell - falls wirklich ein Kapazitätsengpass besteht - sämtliche großen Serverhersteller mit Freude einen Großauftrag für Server annehmen und liefern. ;)

    Skalierungsprobleme bekommt man in der Informatik dann, wenn man es mit einem Problem zu tun bekommt, für die kein Verfahren bekannt ist, welches hinreichend horizontal skaliert (also das Hinzufügen weiterer Server nur eingeschränkt weiterhilft) und die vertikale Skalierung (Aufrüstung der Server bzw. Ersetzen der existierenden durch schnellere) an ihre Grenzen stößt.

    Da DNS ein Problem ist, bei welchem permanent Dinge abgefragt werden (IP von Domain), aber "im Verhältnis dazu" nur sehr selten Einträge geändert werden und es außerdem kein Weltuntergang ist, wenn es ein paar Minuten dauert, bis Einträge aktualisiert werden, kann man DNS mittels Caching sehr gut skalieren.

    Die Probleme, die wir mit dem Internet bekommen werden, wenn China weiter wächst, sind ganz andere (und seit mindestens 10 Jahren ist die Lösung dafür wohlbekannt): das Protokoll IPv4 (Internet Layer des Internet-Protokoll-Stacks) stößt an seine Grenzen, da die letzten freien Blöcke vor Kurzem an die lokalen Registrare vergeben wurden - also schlicht und einfach keine IP-Blöcke mehr da sind.

    Der Nachfolger IPv6 steht in den Startlöchern, welcher die Größe einer IP von 32 auf 128 Bit erhöht, aber bislang bietet dies kaum ein Provider an. Weiterhin gibt es den Vorbehalt gegenüber IPv6, dass hierdurch eine Überwachung von Nutzern möglich wird. Dieses Argument ist prinzipiell nicht korrekt (auch IPv4 hat die selben "Möglichkeiten" - erst durch Verwendung von Zusatzprotokollen wie TOR wird Anonymisierung erreicht), aber durch den vielfachen Einsatz von dynamischer IP-Vergabe bei IPv4 (historisch eher als "Unfall" zu sehen, um eine schnelle Lösung gegen den Mangel an IP-Adressen zu liefern) ist die Nutzer-Überwachung bei IPv4 ein wenig komplizierter. Meiner Ansicht nach wiegen sich praktisch alle Nutzer dadurch in einer vollkommen ungerechtfertigten Sicherheit, aber wenn ich dazu mehr schreibe, wird es komplett Off Topic.

    Leute, dabei fällt mir ein: schreibt euch die IP Adressen von allen Seiten auf, die für euch wichtig sind. Könnte sonst sein, dass ihr sie nicht mehr erreicht, wenn die DNS Server zusammenklappen, was nur eine Frage der Zeit ist.

    Wie kommst du zu der These, dass DNS bald zusammenklappt? Ich weiß, dass DNS einige Schwachstellen hat (auf die an dieser Stelle nicht näher eingehen will), aber einen Grund zur Annahme, dass DNS in absehbarer Zeit zusammenklappt, sehe ich nicht (was nicht heißt, dass es nicht dennoch sinnvoll ist, IP-Adressen wichtiger Dienste zu backupen - aber aus gänzlich anderen Gründen).

    Medizinstatistiker haben medizinische Veröffentlichungen überprüft, um zu ermitteln, welche Medikamente und Therapien wirklich helfen – weil deren Wirkung durch aussagekräftige und belastbare Daten untermauert werden kann. Doch eine saubere Bewertung der Wirksamkeit ist aufgrund der Datenlage oft gar nicht möglich, weil die Hersteller oft klinische Tests mit ungünstigem Ergebnis zurückhalten oder durch statistische Tricks die Medikamente besser dastehen lassen, als sie tatsächlich sind.

    Die erste umfassende Übersicht mit Fallbeispielen für die verbreitete Praxis, unangenehme Studiendaten selektiv zu verschweigen, haben Arzneimittelprüfer des Kölner Institutes für Qualität und Wirtschaftlichkeit im Gesundheitswesen im Oktober 2010 veröffentlicht. "Vergleicht man die unpublizierten mit den publizierten Daten, so zeigen sich große Ergebnisunterschiede. Die publizierten Studien neigen dazu, die Wirksamkeit zu über- und die Nebenwirkungen zu unterschätzen", resümieren die Prüfer.

    Diese Gepflogenheit, Informationen durch Verschweigen zu beeinflussen oder undurchsichtig zu präsentieren, bezeichnet man in der Wissenschaft als "biased reporting". Rechnet man die Ergebnisse von Stichproben hoch, dann müsse man 50 bis 90 Prozent der heute als erprobt geltenden ärztlichen Interventionen "mit großen Fragezeichen" versehen, heißt es in der Studie. "Nimmt man all die Indizien zusammen, die wir heute haben, um das Ausmaß der Verfälschung abzuschätzen, dann liegt der Schluss nahe, dass die Ärzte ihre Patienten im Blindflug behandeln", so Gerd Antes, Professor für Biometrie in Freiburg, in der [color=#012469]Januar-Ausgabe[/color] des Magazins Technology Review (ab dem 23. 12. am Kiosk oder ab sofort [color=#012469]online bestellbar[/color] ). (Nike Heinen) / ([color=#012469]wst[/color])

    Quelle: http://www.heise.de/newsticker/mel…en-1158102.html

    Ich sehe es aus meiner eigenen Erfahrung vor allem deswegen als empfehlenswert an, sich mit der Shell zu beschäftigen, weil sehr viele Betriebssysteme, die auf dem Markt sind, in irgendeiner Form sich am POSIX orientieren (ein Standard für Unix-kompatible und -ähnliche Systeme).

    Beispiele dafür sind neben Linux die ganzen BSD-Varianten (FreeBSD, NetBSD, OpenBSD, PC-BSD, DragonflyBSD), die kommerziellen Unices (z. B. Solaris), aber auch MacOS X (!), was viele Anwender nicht wissen. Ebenso stellt Microsoft auch für Windows einen Posix-Kompatibilitätslayer (Interix - vermarktet unter dem Namen "Windows Services for Unix") bereit.

    Somit: wenn man mit der Shell umzugehen weiß, dann kann man sich häufig relativ sehr schnell in die wichtigsten verfügbaren Betriebssysteme einarbeiten, falls aus irgendwelchen Gründen die Notwendigkeit dazu besteht.

    Ergänzung: ein weiterer Grund, sich in die Shell einzuarbeiten ist, dass sich Programme, wie das Versionscontrollsystem Git (welches ich im Übrigen empfehlen kann ;)), am allerbesten über die Shell bedienen lassen - von den graphischen Frontends dafür hat mich noch keines überzeugt.