Beiträge von Nubok

    Diese Nachricht ist weit über ein Jahr alt.

    Über Grigorij Perelman gibt es eigentlich nur eine inoffizielle Biographie: "Perfect Rigor: A Genius and the Mathematical Breakthrough of the Century" von Masha Gessen (ich habe es im Schrank stehen) - auch wenn ich dieses Buch nur extrem eingeschränkt empfehlen kann, da die Autorin lediglich Menschen aus seinem Umfeld interviewen konnte. Ebenso wird praktisch nichts über die mathematischen Hintergründe erwähnt und wenn doch, sind diese Teile derart voller sachlicher Fehler...

    Auch wenn Medien gerne die Poincaré-Vermutung in Verbindung mit Perelman zitieren (weil hierauf die 1 Million Dollar ausgeschrieben waren), so hat er in Wirklichkeit ein deutlich allgemeineres Problem gelöst: nämlich die sogenannte Geometrisierungsvermutung für 3-dimensionale Mannigfaltigkeiten nach Thurston (http://de.wikipedia.org/wiki/Geometris…nigfaltigkeiten) bewiesen, welche die Poincaré-Vermutung als Spezialfall enthällt. Somit ist das viel allgemeinere Problem der Klassifikation kompakter, unberandeter dreidimensionaler Mannigfaltigkeiten nun gelöst.

    Zum Thema IT-Sicherheit sollte meine Meinung hier im Forum ja schon bekannt sein: solange man bei einem System nicht mathematisch streng präzise formalisieren kann, wie es sich zu verhalten hat, um eine ebenso formal strenge Hierarchie von Sicherheitspolicies (die jeweils Verfeinerungen voneinander darstellen) umzusetzen, wird Sicherheit in IT-Systemen ein Wunschtraum bleiben.

    Eine solche Reaktion der USA sehe ich daher als Zeichen, dass irgendjemandem Verantwortlichen die Nerven gewaltig blank liegen (sicherlich auch wegen des Angriffs auf Lockheed Martin). Wahrscheinlich sogar ein Eingeständnis, dass sie ein verdammt happiges Problem haben.

    Zur Erklärung:

    Geld spielt sicherlich eine äußerst kleine Rolle (im Sinne von: auf ein paar Milliarden Dollar (notfalls auch hunderte Milliarden ;) ) käme es garantiert nicht an, wenn es das Problem lösen würde :) ). Sicherlich haben sich schon ein Haufen Anbieter von Snake-Oil-Sicherheitslösungen eine goldene Nase verdient. Das Problem ist halt - wie man es so schön schlau ausdrückt: Sicherheit ist ein Cross Concern. Will heißen: ich muss beim Entwickeln von Systemen Sicherheitsaspekte auf allen Ebenen berücksichtigen (eben nicht: ich entwickle mein System und wenn es Sicherheitsprobleme in irgendwelchen Bereichen gibt, kaufe ich Sicherheitslösungen (ggf. teuer) ein - das funktioniert nicht, auch wenn zahlreiche Firmen ihre Kunden dies glauben lassen).

    Woran es also mangelt, ist nicht Geld, sondern Wissen. Auch das kann man einkaufen, aber bedeutend schwieriger. Ich weiß, dass viele Experten für IT-Sicherheit eher liberal eingestellt sind - diese haben wohl eher eingeschränkt Lust, sich einer bürokratischen und eher militärisch geführten Organisation wie der NASA zu helfen. Aber bis hier kann Geld noch eine Menge bewirken.

    Wenn es gelingt, qualifizierte Experten in ausreichender Anzahl "einzukaufen", so sind wir beim nächsten (und wirklich) Problem: das Herstellen von Sicherheit verlangt vielfach eine Neukonzeption wenigstens von Teilen von Systemen, die über lange Zeit historisch gewachsen sind. Mit Geld kann man auch hier das Problem in den Griff bekommen, aber eines kann man auch mit ganz viel Geld nicht einkaufen: eine schnelle Lösung (Projektmanagement-Weisheit: man kann kein Baby in einem Monat herstellen, indem man neun Frauen gleichzeitig befruchtet). Ich tippe einfach mal ganz ins Blaue hinein, dass die NASA 10 Jahre damit beschäftigt sein wird, die Systeme halbwegs sicher zu bekommen.

    Kein Wunder, dass da Nerven blank liegen.

    Daher: Jeder, der Minimalkenntnisse in IT-Sicherheit besitzt, erkennt sofort den Blödsinn hinter der Nachricht - aber aus politischen Gründen muss man Aktionismus vortäuschen, damit wenigstens die Masse daran glaubt. Zudem kann man leicht - wenn man mal wieder "Lust auf einen Krieg hat" nun sehr einfach einen Grund konstruieren, der ein Eingreifen notwendig macht. Business as usual.

    In diesem Zusammenhang ist es interessant, dass sich u.a. Facebook am Anfang des Monats gegen die Festschreibung eines speziellen Datenschutz-Standards ausgesprochen hat. Dieses Verfahren wurde auch bei der neuesten Firefox-Generation eingebaut und heißt dort Do-Not-Track. Es soll künftig verhindern, dass besuchte Seiten bestimmte Daten der Besucher etwa über Cookies ausspionieren. Das passt Facebook gar nicht, weil es nämlich verhindert, dass die Werbung anhand der ausspionierten Besucherdaten angepasst werden kann. [Quelle1] [Quelle2]
    Wenn Do-Not-Track als Standard eingeführt wird, ist es dem Benutzer möglich, seinen Browser so zu konfigurieren, dass bestimmte oder alle besuchten Seiten die relevanten Daten über Cookies erhalten können, um personalisierte Werbung zu erhalten. Aber standardmäßig ist der Browser dann so konfiguriert, dass die Daten privat bleiben.

    Der zweite Absatz von dir stimmt so nicht: Do-Not-Track ist ein Opt-Out-Verfahren. Das heißt in diesem Fall, es wird ein zusätzlicher HTTP-Header gesendet, der (vereinfacht) eine Bitte an den Server beinhaltet, mich nicht zu tracken. Der Server-Betreiber muss also seinen Server explizit so konfigurieren, dass er (falls er den Nutzer trackt) dieser Bitte explizit nachkommt. Was das bedeutet, kann sich jeder selbst denken.

    Was ich persönlich von solchen "Wundermitteln" gegen Nutzertracking halte und was ich als die einzige Möglichkeit sehe, wirklich (so weit, wie es technisch möglich ist) ein Nutzertracking zu verhindern, habe ich im 101_browser-Thread beschrieben - daher hier nur die Ultra-Kurzzusammenfassung: es würde eine Änderung in Sachen Browser-Architektur erfordern, die anfangs viele Nutzer anpissen wird, weil das korrekte Darstellen vieler existierender Webseiten von einem recht bedenklichen Verhalten der Browser abhängt (aber ich arbeite dran ;) ).


    Quelle für eine technische Beschreibung von Do-Not-Track: http://donottrack.us/

    Illuminatus

    Bei der Mithilfe beim Aufbau der "Great Firewall of China" (und sicherlich auch sonstigen Geschäften mit der chinesischen Regierung) haben wohl die meisten großen Netzwerkausrüster Dreck am Stecken. Heute ist Cisco aufgeflogen, morgen wird es Juniper Networks sein und übermorgen - wer weiß ich. Wenn dann doch etwas auffliegt, macht man die Ethik-Marketing-Offensive (siehe z. B. http://www.microscope.co.uk/blogs/network_…anies-list.html - ROFL, wenn es nicht so traurig wäre)...

    Woran Cisco allerdings aus wirtschaftlichen Gründen ein hohes Interesse hat, ist zu wissen, in welche Richtung sich die Netzwerke bewegen (daran Entwicklungen versäumt zu haben, sind schon zahlreiche Unternehmen pleite gegangen oder mussten Verluste hinnehmen). Daher halte ich die Studie für seriös.

    Auch Falun Gong halte ich keineswegs für so "sauber", wie sie sich immer aufspielen (was nicht die gravierenden Menschenrechtsverletzungen der chinesischen Regierung in Abrede stellen soll!), siehe dazu beispielsweise http://www.agpf.de/Falun.htm

    @Ich-bin's

    Im verlinkten PDF ist deutlich ausführlicher erklärt, wie sie auf die Annahmen kommen. Für "Consumers will pay (or not) for Internet connectivity in a much wider range of ways, both direct and indirect, compared to today’s predominant flat-price subscriptions." ist die Erklärung folgendermaßen:

    Zitat

    As high-bandwidth applications explode, the need to allocate available network capacity efficiently across time and users will be a major issue. The spread of wireless connectivity will also open up many new pricing models for network access, such as easily bundling connectivity and services. Capacity management considerations will force a major reshuffling among pricing models (indeed, similar thinking by service providers is already quite advanced). For the Internet, price elasticities have not yet played the role that they have assumed in virtually every other market. Available bandwidth or network capacity will have to be allocated more efficiently—and pricing is a well-proven tool for that.

    Rapid proliferation of new tolling and monetization schemes will also respond to increasingly fine consumer segments appearing across geographies, age groups, genders, and personal desires. Pricing preferences—and highly differentiated competitive offers—will appear around the full range of transaction variables: bundling, a la carte, as you go, off peak, tiered, introductory, balloon, pay for quality, pay for mobility, billing cycles, publicly supported pricing, terms and conditions, guaranteed, banded, bulk, specialty, and so on.

    Almost everything that can be variably priced will be. One-size-fits-all bandwidth options will be the exception rather than the norm. Current at-price plans will seem quaint in retrospect. The presumption that content delivery and connectivity should be considered as separate value propositions will also be subject to experimentation.

    We see the demise of one-price-fits-all, usage-impervious pricing for connectivity as a given, but the extent of technical progress on the wireless front and the nature of capacity constraints in the network (sporadic or sustained, widespread or spotty, policy-driven or spontaneous) will have major implications for how this plays out.

    Der Grund, warum diese Probleme entstanden sind, liegt daran, dass die Netzbetreiber kaum dringend nötige Kapazitäten aufgebaut haben, sondern die Gewinne lieber ausgeschüttet haben. Jetzt haben sie ein Problem, zu dessen (scheinbarer) "Lösung" Traffic Shaping (was einen Bruch der Netzneutralität bedeutet) entwickelt wurde.


    Klingt alles recht negativ - stimmt. Warum glaube ich dennoch nicht, dass es letzten Endes so schlimm kommen wird? Ich sehe zwei Gründe

    • der schon genannte Grund: irgendwann werden die Kunden sich Abzocke, bestimmte Internetdienste erst gegen "Schutzgeldzahlung" (nichts anderes stellt eine Priorisierung von Diensten gegen zusätzliche Bezahlung dar) zu priorisieren, nicht gefallen lassen
    • In den USA hat Google in einer Aktion 500.000 Haushalte in den USA mit 1GBit/s anzubinden (siehe http://www.google.com/appserve/fiberrfi/ und beispielsweise einen deutschen Artikel dazu http://www.golem.de/1002/73027.html) den Netzbetreibern einen gewaltigen Stinkefinger gezeigt. Ich rechne damit, dass ähnliche Aktionen in Zukunft weiter kommen werden - möglicherweise von bislang ganz unbekannten und unerwarteten Teilnehmern

    Unter http://newsroom.cisco.com/dlls/2010/prod_082510b.html habe ich die Pressemitteilung einer hochinteressanten Studie von Cisco Systems (sehr großer Netzwerkausrüster) und Monitor über den Stand des Internets im Jahr 2025 gefunden. In Abhängigkeit von Einflussfaktoren und Annahme von Grundprämissen werden hierbei vier verschiedene Szenarien entwickelt.

    Die Webseite der Studie ist http://www.monitor.com/Expertise/Indu…US/Default.aspx

    Das Ergebnis kann man unter http://www.monitor.com/Portals/0/Moni…2010_August.pdf downloaden.

    Ich persönlich finde es hochinteressant zu lesen, auch wenn ich in einem Punkt sehr skeptisch bin - nämlich der fünften Grundannahme "Consumers will pay for Internet connectivity in a much wider range of ways - with flat pricing a rarity.", die der Studie zugrunde liegt. Ich sehe nämlich bei vielen Dingen immer mehr Konvergenz in Richtung Flatrates, unter anderem, da es Kunden lieben, hierdurch die Kosten gedeckelt zu halten.

    Ach ja: ich halte das Szenario "Insecure Growth" für das, auf das in meinen Augen das meiste hindeutet.

    Heute hatte ich endlich Zeit mir den Film anzuschauen. Meine Meinung dazu: bildet euch euer eigenes Urteil.

    Ich glaube zwar weniger an das präsentierte Szenario, aber es regt dennoch zum Nachdenken an.

    Ich habe soeben folgende hochspannende Reportage (auf Englisch) im Netz gefunden:

    Die fliegenden Männer des Yungas-Tals

    http://english.aljazeera.net/programmes/201…1409577464.html

    Es geht darum, wie ein Koka-Bauer in Bolivien auf die Idee kam, dass man statt dem mühevollen Weg von einer Klippe zur anderen doch einfach Drahtseile dazwischen aufspannt, über die man mittels einer Seilrolle diesen Weg statt in über Stunde in 30 Sekunden zurücklegen kann.

    In diesem Video werden durchaus beide Seiten betrachtet: auf der einen Seite der außerordentliche Segen, den dieses System gebracht hat. Aber auch die Zweifler aufgrund der doch schon aufgetretenen Unfälle kommen zu Wort.

    Alleine schon wegen der wunderschönen Bilder lohnt sich in meinen Augen das Ansehen.

    Ich habe mich tot gelacht, als ich diese Geschichte gelesen habe.

    Es erinnert mich so sehr an die Erfahrungen im Anfängerkurs Klettern im Rahmen des Hochschulsports vor etwas über einem halbem Jahr. Der Kursleiter (sehr lockerer, netter Typ) erzählt ziemlich bald, dass es (außer, wenn wir wirklich vorhaben, im Höchstleistungsbereich zu klettern) nicht nötig sein würde, zusätzliches Muskeltraining wie Gewichte stemmen etc. durchzuführen (was nicht heißt, dass es schadet - nur eben nicht zusätzlich nötig), weil beim Klettern sowieso fast alle Muskeln benutzt werden (Ganzkörpersport).

    Was das heißt, bekamen fast alle Kursteilnehmer in Kürze zu spüren (im wahrsten Sinne des Wortes): ich hatte in den ersten Wochen für die restlichen Tage (bis zum Training in der folgenden Woche) die schlimmsten Muskelkater, an die ich mich erinnern kann. Damit war ich sogar noch harmlos dran. Mein (mittlerweile) Sicherungspartner konnte für mehrere Tage gar nicht mehr sitzen, weil ihm sein Hintern so weh tat (ebenfalls Muskelkater).

    Was soll ich sagen: diese gegenseitigen Horrorgeschichten schweißten enorm zusammen, ebenso wie das gegenseitige Anfeuern, wenn irgendwelche Muskelgruppen nicht mehr konnten ("Ich kann mich nicht mehr hochziehen. Meine Arme können einfach nicht mehr." - "Dann drück dich mit den Beinen nach oben - ich lass' dich erst runter, wenn du oben bist.").

    Was soll ich sagen: letzten Endes macht Klettern höllisch Spaß - und sooo schlimm ist der Muskelkater doch gar nicht - sage ich hinterher... ;)

    Kurz: diesen Post schreibe ich mit deutlich spürbaren Muskelkater in mehreren Oberkörperregionen (unter anderem von einer "babyeinfachen" Kletterroute).

    ICH bin's

    Meine Spezialität ist eher dann, wenn es um die mathematischen Hintergründe geht (ich bin im Studium kurz vor "Dipl. Math." und "BSc Inf."). In Sachen Physik hatte ich lediglich Leistungskurs. Sicherlich würden die meisten Physiker mich daher ohne die geringste Anstrengung in Grund und Boden reden.

    Allerdings habe ich ziemlich wenig Verständnis für Leute, die meinen, Fehler in physikalischen Theorien erkannt zu haben, ohne überhaupt verstanden zu haben, wie eine physikalische Theorie denn auszusehen hat. Hier sage ich: erst einmal hinsetzen und lernen.

    Warum schreibt Alfred Evert - wenn er ein alternatives Modell propagiert - in seiner Ausarbeitung nicht, welche Vorhersagen aktuelle "Standardtheorien" (im Sinne etablierter Schulwissenschaft) haben, machen im Vergleich zu der Aussage seiner Theorien und schlägt ein Experiment vor, um die Frage zu klären, ob seine Theorie korrekt ist.

    Oder: gemäß dem Noether-Theorem (http://de.wikipedia.org/wiki/Noether-Theorem) folgt, dass (im wesentlichen) zu jeder Symmetrie eines physikalischen Systems eine Erhaltungsgröße gehört. Wie sehen die Erhaltungsgrößen seiner Theorie aus (bzw. warum ist das Noether-Theorem nicht anwendbar).

    Zum Thema "Korrespondenzprinzip" habe ich schon etwas geschrieben.

    All dies ist Standard in Sachen physikalischer Forschung, an dem sich seine Ergebnisse zu messen haben. Und von diesem Maßstab ist er Lichtjahre entfernt.

    Zitat


    hmmm....(relativ)

    wird mit

    E = mc2

    nicht das gleiche beschrieben, jedoch um den Faktor "ZEIT" ergänzt

    Wird es nicht Zeit, dass du die nächste Uni-Bibliothek besuchst und du dir ein angemessenes Lehrbuch über die Grundlagen der modernen Physik ausleihst und liest? SCNR. Aber um deine Frage zu beantworten: nein.

    Auch der Spoiler-Text enthält zahllose Schwachstellen. Ich greife nur eine heraus:

    Zitat


    Die Wissenschaften suchen nach der umfassenden ´Weltformel´. In vielen Kulturkreisen ist diese aber längst bekannt: alles ist eines.

    Dann leite mir die von dir zitierte Formel E=m*c^2 (oder F=m*a oder - mein persönlicher Favorit - die Maxwell-Gleichungen http://de.wikipedia.org/wiki/Maxwell-Gleichungen ) daraus her, dass alles eines ist. Ich sehe keine Herleitung, sondern nur Esoterik-Geschwurbel.

    hmmm ......
    oder ..... ist da ein denk-fehler drin

    nach meiner Erfahrung werden physikalische Theorien aus bekannten Naturgesetzen hergeleitet ....., oder?

    Es ist wie in Mathematik: wir schreiben in der Theorie nur sehr wenige grundlegende Eigenschaften (Axiomatik) auf, aus denen man dann den Rest herleiten kann. Anschließend (das ist der Unterschied zwischen Natur- und Strukturwissenschaften) überprüft man mittels Experimenten, ob die Theorie in Einklang mit den Experimenten steht (dann könnte etwas dran sein) oder nicht (dann müssen "die Theoretiker" sich etwas einfallen lassen...).

    Wenn du eine neue Theorie postulierst, sollte man erwarten, dass sie entweder
    * wenn sie Aussagen über Phänomene macht, die in der Physik bereits bekannt sind, man aus dieser zumindest einen Großteil des allgemein akzeptierten physikalischen Wissenstands herleiten kann
    oder
    * Phänomene erklären kann, für die die Wissenschaft bislang keine Erklärung hat

    Für beides kann ich keinerlei Anzeichen finden

    Die Alternative ist, dass das in deinem Bild postulierte "Äther-Theorem" gar keine Theorie im wissenschaftlichen Sinne darstellt. In diesem Falle sollte man erwarten können, dass dein "Äther-Theorem" aber aus akzeptierten physikalischen Theorien herleitbar ist.

    Auch hierfür kann ich keinerlei Anzeichen erkennen.

    Zitat

    selbst eine vernünftige physikalische Theorie bleibt eine Theorie, weil keiner sie mit einen messgeräten bislang beweisen konnte,

    oder hast du ein solches mess-gerät?

    Beweisen kann man in der Physik nichts, wohl aber falsifizieren.

    Um nur ein Beispiel zu geben (Zweites Newtonsches Gesetz):

    F = m * a

    Überprüfung ganz einfach: wir beschleunigen einen Körper und messen einfach mal nach, wie viel Kraft wir hierfür aufwenden müssen und sehen: das stimmt so (Theorie also nicht falsifiziert).

    Unter http://www.physorg.com/news/2011-05-n…rld-energy.html habe ich eine Zusammenfassung einer sehr interessante Analyse auf wissenschaftlich hohem Niveau gefunden, die analysiert, warum Kernkraft wohl niemals zur vollständigen Deckung des Weltenergiebedarfs geeignet sein wird:

    Was mir gerade auffällt: einige der Befragten scheinen im musikalischen Bereich gerne Komoponisten mit Stücken zu verwechseln (oder waren die Redakteure faul?) - gerade in Portugal (http://www.goethe.de/ins/be/prj/dli/tla/por/deindex.htm:(

    4. Welches ist für Sie das schönste deutsche Musikstück (egal welche Musikrichtung)?

    1 Johann Sebastian Bach [font='Arial'][color=#ff6600]11,4% [/color][/font]
    2 9. Sinfonie Beethoven [font='Arial'][color=#ff6600]10,5%[/color][/font]
    3 Beethoven [font='Arial'][color=#ff6600]6,5%[/color][/font]
    4 99.Luftballons [font='Arial'][color=#ff6600]5,6%[/color][/font]
    5 Rammstein [font='Arial'][color=#ff6600]2,8%[/color][/font]
    6 Richard Wagner [font='Arial'][color=#ff6600]2,5%[/color][/font]
    7 Kraftwerk [font='Arial'][color=#ff6600]1,9%[/color][/font]
    8 Matthäus-Passion [font='Arial'][color=#ff6600]1,9%[/color][/font]
    9 Ritt der Walküren [font='Arial'][color=#ff6600]1,5%[/color][/font]
    10 Scorpions [font='Arial'][color=#ff6600]1,5%[/color][/font]
    [font='Arial'][color=#000000][/color][/font]
    Die Plätze 1, 3, 5, 6, 7 und 10 sind offenbar keine Musikstücke, sondern Komponisten bzw. Bands, zumal Platz 9 (Ritt der Walküren) von Wagner (Platz 6) komponiert wurde und Platz 2 von Platz 3.


    hallo nubok,

    mit a/v = 1,0 hab ich was anderes ausdrücken wollen.

    das a/v verhältnis in (bau-)physik beschreibt das verhältnis von Raumvolumen zu Aussenfläche. dabei besitzt die kugel das bestmögliche verhältnis da es keinen geometrischen körper gibt der ein besseres verhältnis aufweist wird die Kugelform generell als Ideal mit einem A/V Verhältnis = 1,0 gesehen.

    Worauf du dich vermutlich beziehst, ist die sogenannte isoperimetrische Ungleichung im dreidimensionalen Raum
    (http://de.wikipedia.org/wiki/Isoperime…ensionalen_Raum). Die Darstellung auf WP gefällt mir nicht, daher werde ich die Formel ein wenig anders aufschreiben:

    V^2 / A^3 >= 1/(36*pi)

    V - Volumen des Körpers
    A - Oberfläche des Körpers

    In der Tat gilt "im wesentlichen" (das kann man exakt formulieren - aber davon will ich absehen) nur für Kugeln im dreidimensionalen Raum R^3 Gleichheit, ansonsten echte Ungleichheit.

    Allerdings Oberfläche (A) geteilt durch Volumen (V) ergibt als Einheit [1/m] (unter Verwendung von SI-Einheiten) und sicher kein einheitenloses 1.0.

    Zitat

    eigentlich bin ich zu faul zum rechnen, vor allem mag ich keine solch langen formeln, und da hab ich mir gedacht, dass entsprechend der prinzipiellen logik vorhergehenden aussage:

    diese aussage einen interessanten Gedankengang erlaubt .....

    die beschleunigungskräfte der 1m eisenkugel auf den apfel wirken ebenso wie die Kräfte der 30m eisenkugel unter betrachtung des gleichen Abstands des Apfels von 1m zur kugeloberfläche ....

    wenn dem so ist, dann müsste dann die Massenanziehungs-Kraft einer Eisenkugel von nur 0,1m Durchmesser (Masse <2,0 kg) auf den Apfel ebenso gross sein, wie die Massenanziehungs-Kräfte der kugel mit 33.000.000.000 kg sofern sich die kugel in allen Fällen in einer relativen entfernung von 1,0 m zur jeweiligen Kugelhülle befindet.

    ein irrsinniger gedanke ....
    was spricht dein taschenrechner?

    Dein Gedankengang ist falsch (wahrscheinlich habe ich es missverständlich ausgedrückt): das Masseverhältnis spielt keine Rolle (wenn wir die Masse beider Körper verdoppeln und die Abstände der Schwerpunkte der Körper gleich bleiben, bleibt das Masseverhältnis gleich, aber die Gravitationsbeschleunigung verdoppelt sich), wohl aber die absolute Masse der Körper (in diesem Fall in erster Linie die Eisenkugel).

    Und ich habe schon mehrfach in diesem Thread erläutert, dass du bitte von deinen Abständen der Kugeloberflächen voneinander ablassen solltest - was interessiert, ist der Abstand der Schwerpunkte (= Kugelmittelpunkte) voneinander. Man kann letztere Größe aus dem Abstand der Kugeloberflächen voneinander einfach ausrechnen (Grundschulstoff) - aber warum schwierig, wenn es auch einfach geht?