Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Rybka-Cluster. Die Gelddruck-Maschine
1 2 Previous Next  
Parent - By Frank Quisinsky Date 2011-02-08 19:40 Edited 2011-02-08 19:45
Erfahrungen sind immer Gold Wert ...
Ob negativ oder positiv!
Aus negativen lernen wir mehr, fallen mehr ins Gewicht.
Bei mir eher die Fress-Sucht (Gewicht)

Zukünftiges Thema bei der Hardware ist ...
Bekannte Physikalische Regeln ausheben.
Die Software folgt automatisch, das ist so sicher wie das Amen in der Kirche.
Um entsprechende Software müssen wir uns keine Gedanken machen, sind zu viele Entwickler unterwegs.
Kann auch jeder der Lust hat etwas entwickeln, aber nicht jeder kann eine Hardware bauen ... maximal kaufen!

Insofern wird es zukünftig schon schwierig das Gleichgewicht zwischen Software und Hardware zu halten.

Logischerweise führt die Kombi zum Erfolg.

Du kaufst einen Rybka und bekommst eine Platine mit 100 Cluster oder 200 Cluster oder 300 Cluster dabei!
Das sind so Dinge die auch so sicher sind wie das Amen in der Kirche ... schon früher wurde daran gedacht (ChessMaschine).

Nur das gibt die jetzige Entwicklung noch nicht her!
Daher auch ...

Das was jetzt mit der Cluster-Diskussion erreicht wird, ist morgen Schnee von Gestern.
Parent - By Frank Quisinsky Date 2011-02-08 19:36
Bauen die Fritz und Fertig Lern-CDs für Kinder nicht aufeinander auf.
Ohne Teil 1 kein Bezug zu Teil 2 ...

Oder die Lernhefte vom dem Holländer die in Schulen eingesetzt werden.
Alte kommerzielle Weisheit.

Teil 1 von Harry Potter
Teil 2 von Harry Potter

und dann später ...
Die Sonder-Edition mit allen Teilen etc..

Wird die Community nicht größer dann heit so ...
Aber wie gesagt da muss heute schon wirklich was neues bahnbrechendes kommen.

Wenn nicht ...
Überspringen wir die Einzelhandel und konzentrieren wir uns auf dem Großhandel, egal wie ...
Direkt 2-3x das große Geld ist weniger Arbeit als 200x das kleine Geld ...

Ja, ja ... der Verkauf ist ein Thema für sich!
So einfach ist das nicht, egal mit welchen Mitteln gearbeitet wird.

Letztendlich zählt Fantasie, Innovation, Ideenreichtum ...
Zugegeben, Engine zur Miete ist eine Idee aber ich glaube keine langfristig gute es sein denn die Idee wird noch ausgearbeitet.
Wie ausgearbeitet, darauf bin ich gespannt ...

So etwas klarer, zu viel WirrWarr in den Gedankengängen beim Schreiben!
Parent - - By Frank Quisinsky Date 2011-02-08 18:19 Edited 2011-02-08 18:25
Hi Timo,

da muss auch nichts verglichen werden.
Es gibt physikalische Grenzen: Die Jagd nach einem Phantom hebeln diese Grenzen nicht aus!
Was nicht beweisbar und nachvollziehbar ist bleibt ein Phantom!

Was der Mensch nicht hat muss gut sein!?
Woher kennen wir das?

Wünsche wecken ist das oberste kommerzielle Ziel, erst wenn dieses Ziel erreicht ist fließt der Rubel.

Wie gesagt, es gibt physikalische Grenzen und ferner z. B. mindestens drei Dutzend Programmierer denen ich mehr zutrauen würde als dem Rybka Programmierer.

Bei diesen Fragen ist auch nicht wichtig wer irgend etwas hat oder testen kann (angesprochenen Personen), sondern wie weit die Entwicklung mitspielt. Messen kannst Du anhand von Partien auch dann, wenn vergleichbar, gleiche Version. Spielt z. B. eine andere Rybka Version ist nichts zu messen. Selbst wenn es Partien von Rybka geben würde, aus denen eine Suchtiefe ersichtlich wird, fehlt der Vergleich. Denn ob die Suchtiefen vom käuflichen Rybka stimmen ist auch so eine Frage.

Diese ganzen Geschichten schreien nach mehr Informationen, als die, die zur Zeit verfügbar sind. Fehlt es an wichtigen Informationen muss es Gründe geben!

Nehmen wir mal 256 Kerne!
Kann mir nicht vorstellen, dass bei so vielen Kernen z. b. die 32fache Geschwindigkeit herauskommt. Auch werden sich Fehler einschleichen, denn wenn eine Engine wirklich perfekt laufen würde, bei so vielen Kernen, wäre das schon sensationell. Und nicht zuletzt wird aufgrund sehr aggressiven Null-Move Umsetzungen, LMR Umsetzungen auch viel übersehen, gerade taktisch. Ob eine Engine dann mit 100 oder 8 Kernen läuft, viele guten und möglichen Züge werden wahrscheinlich übersprungen.

Würde mich gerne eines besseren belehren lassen aber nur aufgrund von Gerüchten die nicht nachvollziehbar sind.

Also, Internetseite ... 100 Stellungen zu vielen unterschiedlichen Mustern drauf und die Cluster Rybka Analyse drunter.
Wenn es dann zu atemberaubenden Ergebnissen kommen würde, wäre ich überzeugt.

Wird aber nicht passieren.
Muss einfach Dinge geben die nicht bewiesen sind, da sonst keine Wünsche geweckt werden.

Wobei sich dann noch die Frage stellt ...
Wer braucht eine Engine mit mehr als 3.000 ELO?

Wer?

Gruß
Frank
Parent - By Frank Quisinsky Date 2011-02-08 18:38 Edited 2011-02-08 18:41
Hi,

könnte ja mal 100 Stellungen vorgeben.
Natürlich wäre ich dabei gemein und würde in den Datenbanken nach problematischen Rybka Stellungen suchen

Oder nach besonders guten suchen!
Je nachdem wie es gerade benötigt wird.

Das meine ich damit ...
Phantom!
Und meines Erachtens noch nicht mal ein sonderlich interessantes Phantom.

Nicht wegen der Idee oder wegen Rybka ...
Spielt für mich keine Rolle ...

Sondern wegen ...
Wer braucht wirklich eine Engine die mehr als 3.000 ELO hat?

Nehmen wir mal an ein Rybka würde auf 1.024 Cores perfekt laufen und eine ELO von echten 3.500 erreichen. Das wäre wissenschaftlich interessant aber für den Massenmarkt? Nun gut, es gibt auch Menschen die geben Geld dafür aus um zum Mond ...

Allerdings sind das zwei völlig verschiedenen Themen denn falsche Wünsche wecken geht nach hinten los. Wenn sich der gut Betuchte die beste herkömmliche Hardware bis Grenze x kauft und dennoch nicht mit einem Miet-Rybka mithalten kann, verliert er sein Interesse weil seine eigene Grenze gesprengt wird. Das sind so Kleinigkeiten die meines Erachtens bei dem Konzept übersehen werden. Denn er will besitzen, Idealisten wollen besitzen und nicht mieten.

Allerdings gibt es ein paar nette Ideen wie aus einer Miete etwas besonderes gebastelt werden könnte
Daher, bin sehr gespannt auf dieses Thema ... nicht auf das was derzeit bekannt ist, sondern eher auf das was dahingehend noch kommen wird.
Schachspieler heit, denkt ein paar Züge weiter ...

Im Grunde um zu sehen was aus dieser Idee dann letztendlich wird!

Gruß
Frank
Parent - - By Peter Martan Date 2011-02-08 18:32 Edited 2011-02-08 18:35
[quote="Timo Klaustermeyer"]
Wie du selbst schon richtig sagst, bringen viele Kerne alleine noch gar nichts. Man muss sie auch richtig ausnutzen können. Houdini skaliert beispielsweise auf 8 Kernen noch ziemlich gut, auf 12 hingegen miserabel, wie mir Harry Schnapp vorhin am Telefon erzählte. [/quote]

Hallo Time!
Das kann ich so wirklich nicht bestätigen, ich finde im Gegenteil, dass gerade von 8 auf 12 Kerne die Leistungssteigerung von Houdini relativ zu anderen engines sehr gut ist.
Die durchschnittlchen Knotenzahlen sind 15 zu 25Mn/s, das time to depth- Verhältnis hängt natürlich erst recht sehr von der Stellung ab, ist aber meiner Erfahrung nach sogar meistens noch deutlicher.
Vielleicht sollte Harry das autotuning für seine spezifische Konfiguration laufen lassen, um den optimalen split point zu kennen, und dann ist natürlich die Frage, ob er die beste Version der mehr-als-8-MP hat. Die ist ja, soviel ich weiß, immer noch nicht freigegeben, Mail an Robert Houdart genügt aber wahrscheinich, wenn man ihm dafür etwas Testmaterial zurück schickt.
Parent - - By Willi Prinz Date 2011-02-08 19:08
Ist denn schon bekannt,wo man diesen Super Rybka dann mal bewundern kann,die Supergms werden uns wohl nicht an den Analysen teilnehmen lassen.
Also nur auf dem Fritz Server?
Gruss Willi
Parent - - By Peter Martan Date 2011-02-08 19:22
[quote="Willi Prinz"]
Also nur auf dem Fritz Server?
[/quote]

Hallo Willi!

Das wäre einerseits natürlich ein Werbeargument, ein paar Schaupartien im Maschinenraum, allerdings wohl nur, wenn die Elo dann auch stimmen.

Ehrlich gesagt, glaube ich nicht, dass Vasik Rajlich dieses Risiko eingehen wird, ein paar Blitzpartien würden ja vielleicht auch nicht viel sagen, ich stelle mir vor, dass so ein Cluster, wenn er noch so gut funktioniert, seine wahren Stärken erst bei halbwegs Bedenkzeit präsentieren wird.
Dann packt da am Ende einer der server- freaks sein Kampf- und Krampfbuch aus...

Überhaupt wird das Ding, wenn es überlebt, wohl zumindest am Anfang von der Geheimhaltung leben, das macht es ja gerade so spannend, und sag mal selbst: würdest du die community offenherzig an den Analysen, die du da um "teures" Geld erkaufst, Anteil haben lassen?
Ich würde das schon deshalb nicht (naja, mal sehen, wenn's entsprechende Ergebnisse sind, vielleicht doch? ), weil ich mich ein bisschen schämte, wenn ich mir das leistete.

Im Ernst aber, ich schließe mich denjenigen an, die da meinen, das sei gar nicht sooo teuer, für den Aufwand sicher nicht, je nachdem halt, was hinten dabei raus kommt.
Parent - By Hermann Hartl Date 2011-02-08 19:49
[quote="Peter Martan"]Im Ernst aber, ich schließe mich denjenigen an, die da meinen, das sei gar nicht sooo teuer, für den Aufwand sicher nicht, je nachdem halt, was hinten dabei raus kommt.[/quote]

Man kann es natürlich so sehen, für den Aufwand, der da getrieben wird dürfte der Preis angemessen sein. Aber das ist für einen potentiellen Mieter wahrscheinlich kein Kriterium. Entscheidend  dürfte sein, ob der Cluster etwas bietet, daß ein anderes Programm nicht bieten kann. Und damit meine ich jetzt nicht, ob er ein Schachproblem in fünf Sekunden löst, für dass ein anderes Programm vierzig benötigt. Und eben daran habe ich erhebliche Zweifel
Parent - - By Werner Mueller Date 2011-02-08 20:49
[quote="Willi Prinz"]
Ist denn schon bekannt,wo man diesen Super Rybka dann mal bewundern kann,die Supergms werden uns wohl nicht an den Analysen teilnehmen lassen.
Also nur auf dem Fritz Server?
Gruss Willi
[/quote]
Ich glaube Du überschätzt das Einkommen (auch) eines Super-GMs bei weitem.
Nein, ich denke dieses Geschäftsmodell kann man höchstens ein paar gelangweilten Potentaten unter Schmackhaftmachung eines schachlichen Ersatz-Thrones (sozusagen - und nicht ganz unaktuell - für alle Fälle ) andrehen.
Parent - By Benno Hartwig Date 2011-02-09 09:25
[quote="Werner Mueller"]Ich glaube Du überschätzt das Einkommen (auch) eines Super-GMs bei weitem.
Nein, ich denke dieses Geschäftsmodell kann man höchstens ein paar gelangweilten Potentaten unter Schmackhaftmachung eines schachlichen Ersatz-Thrones (sozusagen - und nicht ganz unaktuell - für alle Fälle ) andrehen.[/quote]Vermutlich wird Vas aber SuperGMs, die sich beredt und werbewirksam als glückliche, begeisterte Rybka-Cluster-User outen "ohne Cluster Rybka kann man sich doch gar nicht mehr auf einen ernsthaften Wettbewerb vorbereiten!", deutlich andere Konditionen bieten.
Benno
Parent - - By Harry Schnapp Date 2011-02-09 13:01
Hallo Peter,
Ich habe seit cca.2 Wochen die 12-16 core Version vom Robert Houdart, erhalten per eMail.Die Knotenzahlen laufen bei mir bis zu über 28.000 und trotzdem ist es so wie ich dem Timo berichtet habe. Der Robert hat mir geschrieben das er versuchen wird eine viel verbesserte Version zu schaffen sobald er Zeit  und die entsprechende technische Ausrüstung hat. Ihm ist bewust daß derzeit Probleme mit der Skalierung erscheinen könnten auf Intel Xeon 56xx Systeme.
Ich habe alles mögliche versucht,sogar auf Playchess mich in 16 Minuten Partien von "normalen" Quads mehrmals schlagen lassen. Besonders in halbgeschlossene Stellungen spielt er sehr passiv und im Endspiel hat er kläglich manche 100% Remispositionen versemmelt!.

Viele Grüße,
Harry
Parent - - By Peter Martan Date 2011-02-09 13:41
Hallo Harry!

Könntest du die eine oder andere Stellung zeigen, in der deiner Meinung nach die Leistung verglichen mit der öffentlichen Version schlechter ist?
Vielleicht hab ich derlei einfach noch nicht bemerkt, ich hab die Beta noch nicht so lang, glaube aber, dass, wenn die Knotenzahlen stimmen und die time to depth, es eigentlich nicht wirklich an der Parallelisierung liegen sollte. Und nachdem der code selbst ansonsten ja erst recht nicht viel anders sein sollte...
Würde mich wirklich interessieren, ob ich das reproduzieren kann, was du sagst.
Parent - - By Thomas Müller Date 2011-02-09 14:35
Hallo,

auf eine Anfrage bekam ich folgende info von robert....

There exists a 12/16 core version of Houdini 1.5 which has been tested by a small group of people.
The version works reasonably well, but isn't very well optimized for the so-called "NUMA" architecture that is found on most motherboards with multiple sockets like the EVGA-SR2.
I'm at present developing a "NUMA-aware" version of Houdini that would serve exclusively for these multiple socket configurations.


bekommt nicht jeder bzw hat z.Z ein kleiner testerkreis.
Und er wird sich dem thema annehmen wenn er selber entsprechende HW hat.

Gruß Thomas
Parent - By Peter Martan Date 2011-02-09 16:18
Hallo Thomas!
Danke, soweit war mir das schon bekannt, deshalb gibt Houdart ja auch die Beta vorläufig nur auf Anfrage per Mail weiter und wünscht sich dafür feedback, vor Allem, was die autotuning- Funktion und das file, das davon geschrieben wird, angeht.
Ich hab ihm meines zurückgeschickt und kann natürlich auch hoffen, dass das noch ein Stück besser wird,  schlecht find ich's jetzt aber auch nicht, rein was die Knoten und time to depth angeht, was ja die leicht meßbaren Parameter der Parallelisierung sein sollten.
Dass in bestimmten Stellungen MP- Glück mal mehr, mal weniger Rolle spielt, ist ein anderes Problem und lässt sich schwerer festmachen, die Partien von Harry muß ich mir erst noch ansehen.
Parent - By Gerhard Austaller Date 2011-02-12 19:41
Hallo

[quote="Thomas Müller"]
Hallo,

auf eine Anfrage bekam ich folgende info von robert....

There exists a 12/16 core version of Houdini 1.5 which has been tested by a small group of people.
The version works reasonably well, but isn't very well optimized for the so-called "NUMA" architecture that is found on most motherboards with multiple sockets like the EVGA-SR2.
I'm at present developing a "NUMA-aware" version of Houdini that would serve exclusively for these multiple socket configurations.


bekommt nicht jeder bzw hat z.Z ein kleiner testerkreis.
Und er wird sich dem thema annehmen wenn er selber entsprechende HW hat.

Gruß Thomas
[/quote]

Könntest Du mal fragen, wieviel Arbeit es dann noch ist aus so einer Version (NUMA) eine technisch funktionierende Clusterversion zu machen, bzw. eine gut-skalierende Clusterversion zu machen. Ich denke mal, die hohe Latenz zwischen den Knoten wird man da ja im Programm irgendwie anders behandel müssen, als auf einer NUMA Version.  Würde mich interessieren.

VG
Gerhard
Parent - - By Harry Schnapp Date 2011-02-09 14:39 Edited 2011-02-09 14:45
[quote="Peter Martan"]
Hallo Harry!

Könntest du die eine oder andere Stellung zeigen, in der deiner Meinung nach die Leistung verglichen mit der öffentlichen Version schlechter ist?
Vielleicht hab ich derlei einfach noch nicht bemerkt, ich hab die Beta noch nicht so lang, glaube aber, dass, wenn die Knotenzahlen stimmen und die time to depth, es eigentlich nicht wirklich an der Parallelisierung liegen sollte. Und nachdem der code selbst ansonsten ja erst recht nicht viel anders sein sollte...
Würde mich wirklich interessieren, ob ich das reproduzieren kann, was du sagst.
[/quote]

Hallo Peter,
Anbei 4 vollständige Partien miserabel gespielt. Die x6 ist eine Abkürzung von x64. Die Version erreichte bis zu 29.000 K/N/S. !! und verlor gegen deutlich langsamere PC's.

    http://ul.to/ab71gb

Viele Grüße,
Harry
Parent - By Peter Martan Date 2011-02-09 19:45 Edited 2011-02-09 19:53
Hallo Harry!
Ich hab über die Partien mal kurz drüber geschaut, leider keine großen Erkenntnisse daraus gewonnen. Es ist halt auch immer schwer, Partien, die unter bestimmten Zeitvorgaben abgelaufen sind, nachzuvollziehen.
Erstmal ist schon ein Unterschied zwischen Analysemodus und Spiel, dann hast du vor Allem keine Chance, den jeweiligen hash, den die engine während des Partieverlaufs hat, nachzustellen.
Was mir an alllen Partien aufgefallen ist, bis auf die zweite, die einfach ein Buchsieg zu sein scheint, kommt in jeder schon nach ca. 60,70 Zügen (in der letzten sogar schon bei 50) ein relativer Zeitmangel zum Tragen, der natürlich vor Allem dann zu Fehlern führt, wenn schon ein kleiner Nachteil da ist, die verteidigende Seite hat's bekanntlich immer schwerer und gute Züge finden sich nicht nur leichter sondern auch schneller im Angriff als in der Verteidigung.
Solche Binsenweisheiten beiseite lassend, glaube ich, dass deine Gegner in der ersten, dritten und vierten Partie vielleicht einfach für den langen Partieverlauf den hash günstiger, vermutlich kleiner eingestellt hatten.
Wenn du deiner Superkiste so richtig Stoff gibst, hilft ihr das bei Bedenkzeiten ohne Inkrement 50, 60 Züge weit, dann sollte aber dem eingebauten Zeitmanagement nach eigentlich schon alles klar sein, ist es das nicht, und kommt sie am Ende bis dahin sogar schon leicht in Nachteil, schnauft sie mit der immer kürzer werdenden Restzeit hörbar unter dem zusätzlichen Gewicht, sie kommt allein mit dem Aktualisieren vom hash nicht nach.
Am Verdächtigsten ist mir die vierte Partie, bei allen anderen haben sich die 8 Kerne und die 12 immer ziemlich ähnlich verhalten, die Pondertreffer der Gegner und die Bewertungen sind ja auch meistens im grünen Bereich, wenngleich mir scheint, DavidG und Rykoszet könnten vielleicht den contempt factor etwas verändert haben, kann aber auch daran liegen, dass der vielleicht für Weiß und für Schwarz nicht gleich ist und der im Analysemodus sowieso ein anderer sein wird.
Bei der vierten hingegen scheint mir, gerade mit vollem hash (solange er nicht übervoll ist ) ist Tiefe 15 für 11 Sekunden Rechenzeit einfach zu wenig, ich meine den 47.Weißzug. Dass dann der erste irgendwie nachweisbare Fehler Dc5 kommt, ist vielleicht kein Zufall.
Hier gibt der Gegnerponder auch das bessere Dc3 an.
Dann geht's schrittweise bergab, Schwarz merkt früher anhand der Bewertung, was gespielt wird.
Dass Schwarz auch schon unter kurzer Restbedenkzeit 50...a5 schon in Tiefe 19 in 4 sec. findet, kam mir zunächst auch besonders glücklich vor, das haben meine 12 Kerne zunächst auch nicht gleich gesehen, die 8 Kerne hatten es früher.

Solche Einzelversuche sagen aber halt einfach nichts, genausowenig wie Statistiken mit zuwenig Partien, schon der nächste Versuch mit leerem hash hat die Beta wieder in Nullkommanix bestätigt, MP- Glück kann man halt bei Stellungstests auch nur durch ein paar Wiederholungen quantitativ eingrenzen.
Zusammenfassend: sorry, kann nicht ausschließen, dass das anscheinend wirklich schlechtere Zeitmanagement in deinen 4 Beispielen (in 3en davon) an der Parallelisierung liegt, sicher wäre ich mir aber auch nicht.
Vielleicht sollte sich Houdart mal anschauen, ob die mehr Kerne nicht ein anderes Zeitmanagement bräuchten als die bis 8.

Ich hatte davon noch nix bemerkt, weil ich an und für sich kaum kurze Bedenzeiten spiele derzeit, deine waren ja auch nicht wirklich kurz, 10+5 wäre halt vielleicht effektiver für einen großen hash und die volle Rechenpower als das 16m+0s, wenn's über 60 Züge geht.

Ich verwende die Beta hauptsächlich für Analysen und Fernschach und da finde ich sie schon deutlich effektiver als die 8 Kerne, wenn man natürlich überhaupt Unterschiede wahrnimmt, man verwendet ja auch meistens nur die eine Version und vergleicht nur bei ein paar Teststellungen. Insbesonders im Schlucken von Pointen, die zunächst nicht gleich von selbst gefunden werden und im Beibehalten im hash helfen die 50% mehr cores schon weiter.

Da ist übrigens meine Methode MP zu vergleichen, ohne erst wieder große Zahlen an Versuchen zu  brauchen, die, dass ich die evals von gefundenen oder nicht gefundenen Lösungen vor und nach falschen und richtigen Varianten vergleiche und nach dem Zurückgehen neuerlich. Da geht neben der reinen Rechnenleistung auch die hash- Behandlung ein, was für mich aber sowieso untrennbar und gerade bei MP ganz wesentlich ist.

Du hast aber jedenfalls natürlich recht, Robert Houdart deine Bedenken mitzuteilen, schließlich sagt er ja selbst, er ist noch nicht zufrieden.
Parent - - By Benno Hartwig Date 2011-02-09 09:10 Edited 2011-02-09 09:15
[quote="Frank Quisinsky"] Im Grunde war schon der Pentium III ein wahrer Blitz und die besten Engines waren auch hier kaum zu bezwingen. Kennst Dich ja dann aus ...[/quote]Seinerzeit fand ich in der Zeitschrift DOS einen 386er-PC beschrieben als 'die Profimaschine schlechthin!'. (1987?)
Wieviel Hauptspeicher mag diese Profimaschine gehabt haben? 16 MB oder so? Noch 1989 hatte mein 286er nur 2 MB.
Wenn man betrachtet, welche Engines, auch von denen die später entwickelt wurden, auf dieser Basis einsetzbar gewesen wären, welche Engine würde dann wohl die beste Wahl sein? Damals lief Windows 2, aber sicher wäre darauf auch Windows 3.11 und vermutlich wäre auch Windos98 und damit 32bit auf dem Rechner lauffähig. Lasst uns hier bitte W98 betrachten.)
Und welche Spielstärke wäre damit realisierbar gewesen auf dieser Profimaschine, Ende der 80er?

Für meinen 286er erstand ich irgendwann Fritz1. Und ich fand das Programm toll.
Viel toller als Psion auf AtariST und Colossus auf C64, die ich vorher hatte.
Und auf jenem 386er wäre in den Folgejahren bestimmt auch Fritz 5, oder dann unter Windows95 manch modernere 32bit-Maschine mit nicht zuviel Speicherhunger einsetzbar gewesen.

Wäre nicht vielleicht auch schon dieser 386er aus den 80ern ein ziemlicher 'Blitz' gewesen?
Ein Monster, welches nur recht wenigen Spielern das Gefühl der Überlegenheit lässt?

Benno
Parent - - By Frank Quisinsky Date 2011-02-10 00:51 Edited 2011-02-10 00:55
Hi Benno,

schön, bist Du schon so lange dabei?
Echt interessant!

Mein erster PC war ein 286er mit 10Mhz.
Obwohl Vobis ja als 16Mhz verkauft hat

Erste Schachprogramme waren Colussus und Psion.
Dann kamen RexChess, Zarkov hinzu.
Später dann Nimzo 1 (sendete mir Chrilly per Post), Mephisto Gideon, Genius 1.

Den Fritz 1 hatte ich auch, eigentlich alle Fritz Versionen.
Glaube früher als in Deutschland gab es in Amerika den Fritz Knighstalker.
Den hatte mir ein Freund per Post gesendet.

Auch die Datenbanken waren interessant.
Chess Assistant 1.2 z. b.
Schönes DOS Programm. Die Frau von einem IM Freund war mit der Dateneingabe der Partien beschäftigt.
Bekannter IM aus St. Petersburg (Partnerstadt von Neuss, den Schachverein luden wir jährlich zu einem Schachturnier ein).

Auch ChessBase in erster Version war richtig interessant.
Vor allem das John Nunn Utility

Ah, weiter gelesen ...
Atari ST und C64, warst also noch früher dran als ich.

Weiß gar nicht mehr genau wie es bei mir weiterging.

286 / 10Mhz
386 / 40Mhz
486 / 33Mhz
Erstes Notebook, 486 / 66Mhz (sehr sehr teuer und war mehr 1 1/2 Jahre nur in Reparatur)
Pentium 60Mhz
AMD K6-2 200
AMD K6-3 350 (die beiden waren zu warm)
Dual Pentium III 733
Dual Pentium III 1GHz (die beiden hatte ich zeitgleich und spielte die ersten Ponder = on Turniere)
Danach hatte ich dann Job-Mäßig damit zu tun, konnte mir also jede Generation, egal was zusammenschustern.

Bei jedem Forum Beitrag musste ich fast rechtfertigen warum ich mit Ponder spielen würde.
Das wäre doch total out
Klar, hatte kaum jemand und die Leute wollten Ponder = off Partien um besser zu vergleichen ... ja, ja die User!

Und zu den Schachprogrammen ...

Am meisten Spaß hatte ich vor der Winboard Zeit mit ...

1. WChess
2. Kallisto
3. Tjes, schöne Grafik ... unbekanntes Programm aus den Niederlanden!
4. Zeuss, spanisches Programm, gewann auch spanische Meisterschaften (nicht der WB Zeuss von heute). Spiele ab und an noch gegen dieses DOS Programm.
5. Zarkov 2.51 war gut (in 2.5 waren einige Fehler), Version 2.6 und 2.61 spielten eher langweiliger. Auch später die 3.0 oder John Stanbacks Windows Programm mit eigener GUI (wurde nicht veröffentlicht).
6. Hiarcs 1 mochte ich auch sehr.

Habe mir noch alles aufgehoben aus dieser Zeit, über 2.000 DOS Versionen von unzähligen Programmen gesammelt. Vieles auch per Post von den Programmierern erhalten.

z. B. ein IsiChess, super Grafik ... der hat richtig Spaß gemacht oder ein Schach 3.0 etc.. Bei den offiziellen Turnieren gaben auch die Programmierer mal gerne eine Version weiter. Habe mir schon oft überlegt alles mal auf einen älteren Rechner zu spielen und so eine Art Museum der DOS Programme online zu stellen. Das Problem ist, ich bekomme das heute nicht mehr auseinander was ich von Programmierern auch mal geheim erhalten habe. Manche wollen das bestimmt nicht.

Tja, und wozu das alles ...
Wir spielten im Schachverein oft Computerturniere oder an der Uni auf seinerzeit viel schnellerer Hardware. Später testete ich auch ein wenig für Jan Louwman und auch für 2 Programmierer. Das alles per Post, Internet kam ja erst viele Jahre später zu mir.

Ah, vergessen ...
Hatte noch einen Pentium I 160Mhz.
Das war wirklich eine Rakete und mein bester Rechner ... hatte ich richtig Spaß mit. Später verkauft, leider ... den hätte ich heute noch gerne!
Ultra Leise in einem Desktop Gehäuse mit riesiger Festplatte. Glaube 240Mb !!

Nostalgie ... Du hast angefangen!
Dachte als ich das las sofort an diese schönen Computerschachzeiten!

Gruß
Frank
Parent - - By Benno Hartwig Date 2011-02-10 07:18
[quote="Frank Quisinsky"]schön, bist Du schon so lange dabei?...Nostalgie ... Du hast angefangen![/quote]Ja, Nostalgie. :-
82 kam der C64 auf den Markt, meinen hatte ich, kassenmauer Student und daher zunächst mit Datasette, wohl 83  oder 84 erstanden.
Neuneinhalb Minuten brauchte Colussus 2.0 von Martin Bryant, um sich mit seinen 27 kB(?) von der Kassette in den Rechner zu hieven, und dann, 'Plopp' stand es plötzlich auf dem Bldschirm.
Etwas später dann doch ein Diskettenlaufwerk und Colossus 4.0.
Damals hatte ich auch überhaupt erst mein erstes Schachlehrbuch gelesen.
Und, für das Thema wichtiger noch, das Buch "Das grosse Computerschachbuch" von Bartel, Kraas und Schrüfer (Data Becker). Auch danach ist mir nie wieder ein Buch in die Hände gekommen, welches auf deutsch so ausführlich und konkret einführt in die Schachprogrammentwicklung!! Oder hat da jemand eine Empfehlung?

Seit dieser Zeit verfolge ich (Ok, mit etwas schwankender Intensität) die Szene.
Romantische Grüße insbesondere an dich, Frank, und alle anderen alten Haudegen der Szene
Parent - - By Frank Quisinsky Date 2011-02-10 10:00
Hi Benno,

also c64 / Atari etc..
Hatte nie wirklich ein Interesse daran. Ca. 11 Jahre vor meinem ersten PC, den 286er waren es eher die Schachcomputer. Aber auch nur in Schüben, mal Fußball oder andere Hobbys. War das angesprochene Buch nicht eher das Buch aus welchem die Eröffnungszüge entnommen werden konnte. Dickes graues Buch aber auch nur deswegen weil die ganzen Eröffnungszüge drin waren. Es gab glaube ich 9 Bücher zu Computerschach. Hatte die auch mal alle gesammelt, verliehen und oftmals nie wieder zurück erhalten ... wie das so ist. Zwei Personen lesen vielleicht mit ... sendet mir mal meine Bücher wieder zurück!

Ein Nachbar hatte einen Atari. Darauf lief ein BattleChess und ein ... glaube es war Sargon II. Meine damalig starken Schachcomputer hatten aber keine Probleme zu gewinnen und so lies mein Interesse sehr schnell wieder nach. Battle Chess war ja noch ganz witzig, aber auch nur die erste gesehene Partie.

Hat Matthias Wüllenweber nicht sein ChessBase zunächst auf Atari programmiert?
Glaube ich habe das mal gelesen aber niemals eine kommerzielle Atari Version gesehen.

Übrigens, die ersten Clone-Fragen kamen bei den Partien auf.
So vermuteten viele das ChessAssistant die Partien von anderen übernommen hat.
Schrieb es ja vorher schon ... für die Dateneingabe waren seinerzeit drei Damen zuständig.

War ganz wild auf die russischen Partien und russischen Meisterschaften.
Das ganze Material erhielt ich direkt aus allererster Quelle, bevor z. B. ChessBase veröffentlicht hat.

Erster mir bekannter Clone war Greif!
Super schöne DOS Grafik aber leider 1:1 ein Nimzo II.
Fiel mir in Grunde schon nach wenigen Partien auf.
Ärgerte mich hierüber zumal mit die dunkle-grüne Grafik echt gut gefallen hat.

Beste Grafikumsetzung in den ersten Zeiten hatte CheckCheck (mit Endspieldatenbanken).
Das waren glaube ich die ersten Endspieldatenbanken, die kamen nicht von Thompson wie so oft immer wieder gefachsimpelt wird.

Weiß gar nicht mehr wer der Programmierer von CheckCheck war.
Sehr spielschwaches Programm aber mit der wie gesagt besten Grafik!

Gruß
Frank
Parent - By Frank Quisinsky Date 2011-02-10 12:36 Edited 2011-02-10 12:38
Hallo zusammen,

CheckCheck

just in diesem Moment wieder eingefallen.
Wolfgang Delmare oder so ähnlich.

Gab seinerzeit 5 Disketten mit Endspieldatenbanken dabei.
Der ganze Verein war restlos begeistert als ich das mal vorführte.
Auch die Brett und Figuren-Grafiken waren einmalig.

Selbst Genius, Gideon, ChessBase hatte keine besseren!

Erinnere mich recht gut daran, habe ich glaube ich auch noch irgend wo.

Gruß
Frank
Parent - - By Benno Hartwig Date 2011-02-10 14:14 Edited 2011-02-10 14:17
[quote="Frank Quisinsky"]also c64 / Atari etc..
Hatte nie wirklich ein Interesse daran.[/quote]Commodore 64
Ich war seinerzeit mitten im Studium. Und jedes Semester wieder hatte ich die in den Rechnerübungsstunden (1 Stunde pro Woche(!) am Terminal zur Lösung der gestellten Aufgaben. Man erschien gern füher, aber es machte ja niemand seinen Platz früher frei. Und lange vor Ablauf der eigenen Terminalstunde standen die Kommilitonen hinter einem, die auf einen früheren Beginn ihrer Stunde hofften ). Zu dieser Zeit war der PC (noch ohne Festplatte, dafür mit zwei Diskettenlaufwerken) einfach schweineteuer und kam überhaupt nicht in Betracht. Da war der C64 einer der erschwinglichen und schon ganz anständig nutzbaren Rechner. Ausgestattet mit Oxford-Pascal ließen sich dort annähernd alle Aufgaben lösen, mit denen ich mich auf der Uni in den ersten Semestern beschäftigt hatte. Auch meine Diplomarbeit entstand auf der Brotkiste, mit 9-Nadel-NLQ-Drucker.
Doch, in jener Zeit bot der C64, angeschlossen am alten tragbaren Fernsehapparat, schon was.

AtariST
Der AtariST war dann mit 1MB Speicher und knackscharfem SW-Monitor schon ein anderes Kaliber. Der machte mehr Spaß. Und sogar das Programmieren in Assembler mit Motorola 68000 machte richtig Spaß!
Als ich auf den 286er umstieg, wurde ich geschockt
a) von der vergleichsweise schlechten Grafik dieses Rechners
b) von dem Intel-Assembler-Code, von dem ich mich gleich zugunsten von C verabschiedet habe
c) von der Unmächtigkeit des Betriebssystems (mit dazugekauften Programmen wurde dann ja alles wieder mächtig. OK)

Nein, zu ihrer Zeit waren der C64 und auch de AtariST schon wirklich ganz feine Maschinen.
Ein 286er (der mit dem AtariST in mancher Beziehung eigentlich nicht wirklich mitkam) kam für einen erträglichen Kaufpreis erst später. Aber seine Linie war unverkennbar die Zukunft! Ich stand vor der Frage "für fast 1000 DM eine Atari-Festplatte kaufen, oder für 1500 bis 2000 DM auf den 286er umsteigen?" Und dann machte ich den Wechsel.
Die AtariST-Linie kam dann aber auch tatsächlich nicht mehr wirklich voran und versandete.

Benno
Parent - By Frank Quisinsky Date 2011-02-10 14:31 Edited 2011-02-10 14:39
Hi Benno,

für mich waren die Programmierfächer immer der blanke Horror. Begann ja schon mit 16 in der Sozialversicherung meine Ausbildung und verblieb dort auch viele Jahre. Später dann ein Abendstudium (Betriebswirt EDV hieß das noch) und das war echt heftig, nach der Arbeit auch das noch. Schon nach drei Semester war die Klasse von 38 auf 14 geschrumpft. Musste im 5ten passen (zwei schwache Noten und Forbildung in der Sozialversicherung stand an ... da musste ich mich entscheiden). So ein Abendstudium kostet viel Motivation und die hatte ich in den Jahren nicht unbedingt. Horror Fach war Turbo Pascal. Ja, schrieb mein erstes Programm auch in dieser Zeit und auch bis auf ein paar Dinge in Visual Basic for Application (Excel Klamotten). Ist nichts für mich, meine Programme bestehen dann irgend wann nur noch aus GoTo und wahrscheinlich würde nur noch ich im Chaos durchblicken. Aber bei diesem Abendstudium hatten wir auch die Atari oder C64 Räume, die aber kaum noch genutzt wurden. Im Grunde seinerzeit glaube ich schon Computerräume mit schnellen 386er Maschinen. Turbo Pascal ... das war für mich der blanke Horror und Assembler ... Hilfe! Der, der Assembler konnte, verstand und entwickelte war ein Held. Basic konnte fast jeder ... die Programmiersprache für den Hausgebrauch und Turbo Pascal war eigentlich nicht so schwer, für mich heit schwer. Fand dann mein Glück in Versuchen mit Cobol. Die Sprache mochte ich, verstand ich aber dennoch ... Programmierung ist nichts für mich! Würde kein Ende finden bei offenen Fragen und sagte mir sehr früh ... Finger weg! Und so händle ich das noch heute, vorhandenes Wissen leugne ich eher oder versuche absichtlich zu vergessen! Habe mir vor drei Jahren beste Lernlektüre zu C++ gekauft. Auch seinerzeit begonnen aber mir fehlt dazu einfach die Lust das auf Dauer auch durchzuziehen.

Hatte auch nie sonderlich ein großes Interesse daran. Aber wie Du es beschrieben hast, der Durchbruch war der 286er und die Geschäfte Escom und Vobis bedienten uns recht gut. Der erste VGA Monitor war auch recht teuer. Hatte an meinem 286 noch diesen grünlich abscheuliche Ding dran ... weiß gar nicht mehr was das für eine Technik war.

Gruß
Frank
Parent - - By Benno Hartwig Date 2011-02-10 21:08 Edited 2011-02-10 21:13
[quote="Frank Quisinsky"]War das angesprochene Buch nicht eher das Buch aus welchem die Eröffnungszüge entnommen werden konnte. Dickes graues Buch aber auch nur deswegen weil die ganzen Eröffnungszüge drin waren. [/quote]Das Data Becker Buch "Das große Computerschachbuch" hatte mit Eröffnungszügen nur wenig am Hut. Hier wurde Zeile für Zeile und Modul für Modul ein Computerschachprogramm in BASIC entwickelt, welches rein logisch durchaus Matt in 4 finden konnte (wenn man denn soviel Zeit gehabt hätte). Es wurden konkret die Datenstrukturen erklärt, Minimax, alpha-beta mit einer Beschreibung der Funktion und der Effizienz, andere Cuts, Suche und Ruhesuche, und statische (schnelle und dabei fehleranfällige) Abschätzungen einer Schlagabtauschsituation, Hauptvariantenpflege, weiterführende Ideen, Killerzüge, Zugsortiermethoden und ihre Wichtigkeit, weiterführende konkrete Ideen, die aber nur umrissen wurden... (ach es ist schon lange her).
OK, alles Stand der Mitte oder Ende der 80er.

Für ein Matt in 2 benötigte es Minuten. Es war kein praktisch einsetzbarer Gegner.
Aber den Aufbau einer Engine hat man doch ein gutes Stück weit sehr konkret verstanden.
Und ich fand recht genau das realisiert, was die Spracklens zuvor auf englisch sehr detailliert an Ideen und Realisierungen über ihr Sargon veröffentlicht hatten. (Clone-Vorwürfe gab es seinerzeit aber nicht.)
In deutsch habe eine solch gute und genaue Einführung in die Schachprogrammierung nie wieder gefunden.

Benno
Parent - - By Frank Quisinsky Date 2011-02-10 21:50
Hi Benno,

Ohkeeeyy ...
Dann hatte ich dieses Buch nicht in meiner Sammlung und verwechselte das mit einem anderen Buch.
Wie gesagt, Programmierung war auch nicht sonderlich das Thema was mich antörnte.

Glaube es gab noch ein Buch von Steinwender. Habe ich auch mal verliehen und nie wieder zurück erhalten.
Darin gab es auch Beispiele zu der Programmierung.

War wirklich ein schönes Computerschachbuch, gab auch nicht viel besseres in dieser Zeit.
Bis auf die Spielstileinschätzungen ... da passte nur wenig.
Gerade die von Kallisto

Tja, heute könnten wir 1.000 Bände mit solchen Infos füllen, die überwiegend in dem Buch von Steinwender standen.
Aber es waren wie gesagt auch Programmierbeispiele drin.

Mein Schachfreund hat ein wirklich richtig gutes Buch darüber, kannte ich auch nicht.
Dachte eigentlich immer mehr als diese 9 die ich hatte gab es nicht.

Kann ihn ja mal befragen und mich nochmals melden.
Vielleicht das was Du evtl. noch suchst, wenn ich Deinen Aufhänger ein paar Beiträge zuvor richtig verstehe.

Gruß
Frank
Parent - By Kurt Utzinger Date 2011-02-10 23:25
[quote="Frank Quisinsky"]
[...]
Glaube es gab noch ein Buch von Steinwender. Habe ich auch mal verliehen und nie wieder zurück erhalten.
Darin gab es auch Beispiele zu der Programmierung.
[...][/quote]

Hallo Frank
Ja, das Buch heisst "Schach am PC" von Dieter Steinwender und Frederic A. Friedel. Schön aufgemacht
und u.a. enthaltend MiniMAX in Basic sowie den Quellcode von Nimzo 2.2.1 (Programmiersprache C).
Mfg
Kurt
Parent - By Benno Hartwig Date 2011-02-11 06:58
Und gebraucht wird es auch heute angeboten:
http://www.amazon.de/exec/obidos/ASIN/3890111173/computerwison-21
und es wird dabei in diesem Fall für das gelesene Exemplar wohl mehr Geld verlangt als damals für das originalverschweiste!
Faszinierend.
Benno
Parent - By Joe Nettelbeck Date 2011-02-10 00:06
Das Problem der Überteuerung kann und muss man von zwei Seiten betrachten: Einmal, wie hoch der Preis sein muss, damit er die Kosten deckt (und etwas mehr, wenn's geht), zum anderen aber, wie hoch er sein darf, damit sich noch Kunden finden. Zwischen diesen beiden Kurven gibt es einen optimalen Punkt, den es zu finden gilt. Optimaler Punkt heißt übrigens nicht unbedingt, dass die ganze Chose deshalb auch schon Gewinne macht. Wie dem auch sei, meine persönliche Vermutung ist, dass der Preis hier deutlich über dem optimalen Punkt liegt, und dass der Cluster nächstes Jahr um diese Zeit Geschichte ist. Aber da kann ich mich natürlich auch irren...
Parent - - By Ehrenfried Kowalski Date 2011-02-09 10:34
[quote="Christoph Axmann"]
Denkt außer mir eigentlich noch jemand, daß VR jetzt völlig die Bodenhaftung verloren hat? Schon mal jemand die Preise angeschaut, die diesem Herrn da so vorschweben?
[/quote]
ein versuchsballon in der hoffnung auf ein ausreichendes verhältnis angebot zu nachfrage. völlig legitim, so funktioniert die marktwirtschaft.
hat eigentlich jemand ausgerechnet, ab wie viel tagen nutzung sich die anschaffung eines eigenen mini-clusters rentiert, ohne jetzt elo und zeitmässig zu weit weg zu sein vom rybka-cluster?
Parent - - By Bert Rinzel Date 2011-02-09 14:23
Was verstehst du unter einem mini-cluster?

Und was willst du damit, wenn es keine entsprechende engine dafür  gibt?
Parent - - By Ehrenfried Kowalski Date 2011-02-09 19:01
[quote="Bert Rinzel"]
Was verstehst du unter einem mini-cluster?

Und was willst du damit, wenn es keine entsprechende engine dafür  gibt?
[/quote]
na einen mit deutlich weniger kernen als die angebotenen top 100. zb 32-50, dann hält sich der geschwindiekeitsnachteil in grenzen. kann rybka damit denn nicht umgehen? kann doch auch auf quadcore spielen?
Parent - - By Bert Rinzel Date 2011-02-10 07:36
Hast offenbar keine ahnung was man unter einem cluster versteht:

http://de.wikipedia.org/wiki/Computercluster

Damit jedenfalls kann die normale rybka version nicht umgehen.
Parent - - By Ehrenfried Kowalski Date 2011-02-10 09:42
danke für den link. ok, dann eben kein cluster, sondern ein rechner mit entsprechender core-anzahl. ist es möglich, mit einem vierstelligen betrag einen 32 core zusammenzustellen? darauf wird deep rybka doch laufen? aber ich habe den eindruck, dass es teurer ist und leistungsmäßig doch einiges weg von den 100 cores des clusters. faktor 4 ist nicht zu verachten.
Parent - - By Benno Hartwig Date 2011-02-12 22:34
[quote="Ehrenfried Kowalski"]...leistungsmäßig doch einiges weg von den 100 cores des clusters. faktor 4 ist nicht zu verachten.[/quote]Ich bin mal gespannt, ob sich mit den Sprung von 32 auf 128 Kerne (und hier haben wir ja 'nur' 100) derselbe ansehnliche Spielstärkesprung erreichen lässt wie beim Übergang von einem Kern zum Quad. Was durften wir da annehmen? So ca 90 ELO?
OK, verachten will ich 90 ELO nicht. Wenn dafür aber 96 Kerne dazugekauft werden müssen (In diesem Fall also: "ein teuerer Hightech-Kern bringt kanpp ein ELO"), dann ist das schon ganz schön viel Aufwand.

Seinerzeit trat ein getunter Mephisto III bei der WM an, und schnitt mäßig ab.
"Der IIIer macht dieselben Fehler wie immer, nur etwas schneller!" war damals der launige Kommentar des Mephisto-Betreuers.
Benno
Parent - - By Bert Rinzel Date 2011-02-13 07:22
hi Benno,

und wer soll sich die kosten ans bein binden um die "elosteigerung" festzustellen???

Ganz davon abgesehen, dass diese tests völlig überflüssig wären. Ab und an konnte man das teil (vermutlich war es dieser cluster) im maschinenraum bewundern. Er hat alles in grund und boden gespielt. Aber eine wirkliche remislinie kann auch noch so viel power nicht gewinnen.

Bert
Parent - By Benno Hartwig Date 2011-02-13 13:46
[quote="Bert Rinzel"]und wer soll sich die kosten ans bein binden um die "elosteigerung" festzustellen???[/quote]Dürfen denn Fragen nur gestellt weren, wenn man jemanden benennt, der diese Aufgabe erledigen soll?
Mich interessiert diese Frage "Wieviel ELO-Steigerung bringt in Abhängigkeit von n eine Kernverdoppelung von n auf 2n Kerne bei den heutigen Softwarelösungen?" 
1->2 und 2->4 kann man ja schon bewundern. Aber 32->64 ist für mich noch einigermaßen schleierhaft.

[quote="Bert Rinzel"]Ganz davon abgesehen, dass diese tests völlig überflüssig wären. Ab und an konnte man das teil (vermutlich war es dieser cluster) im maschinenraum bewundern. Er hat alles in grund und boden gespielt. Aber eine wirkliche remislinie kann auch noch so viel power nicht gewinnen.[/quote]Na, dich bewegen ja erstaunliche Gedanken. Solche Fragen haben doch herzlich wenig mit dem Maschinenraum zu tun. Und dass die optimal spielende Engines eine vielleicht klare  Remisstellung nicht gewinnen kann, wenn der Gegner immerhin stark genug ist, remis-haltende Züge zu finden, ist meiner Meinung nach kein Argument für ein "Ach, stärkere Engines brauchen wir eigentlich nicht!".Brauchen' wir natürlich wirklich nicht. Ich fänd ihre Existenz aber trotzdem sehr schön.
(Und ich will auch gar nicht diskutieren, ein wie starkes Schachprogramm ich persönlich wirklich brauche)
Benno
Parent - - By Frank Quisinsky Date 2011-02-10 10:11
Hi Bert,

wenn ich mir so Kommentare durchlese die Leute zum Besten geben.
Aber auch verständlich, sind ja nicht alles Hardware-Freaks oder schon 35 Jahre dabei.
Reizt mich auch ein wenig an den Foren das zu lesen.

Glaube die Cluster-Technology ist nur eine sehr kurzfristige Zwischenstufe weil die Steigerung hierzu quasi schon auf der Hand liegt.
Glaube die Entwicklung ist derzeit schon knapp 3 1/2 Jahre dem Massenmarkt voraus! 2007 war es noch 1 3/4 Jahre.

Gruß
Frank
Parent - By Gerhard Austaller Date 2011-02-12 20:18
Hallo

[quote="Frank Quisinsky"]
Glaube die Cluster-Technology ist nur eine sehr kurzfristige Zwischenstufe weil die Steigerung hierzu quasi schon auf der Hand liegt.
Glaube die Entwicklung ist derzeit schon knapp 3 1/2 Jahre dem Massenmarkt voraus! 2007 war es noch 1 3/4 Jahre.
[/quote]

Also was Du damit meinst, musst Du mir jetzt erklären? Was für Steigerung gegenüber Cluster meinst Du? Cluster sind schon ewig gängiges Konzept, wenn es viel zu Rechnen gibt, wie Wettervorhersagen, Atombombensimulationen usw. Da hängen Knoten mit in Summe 1000en früher Einzelcore-Prozessoren jetzt Multicore-Prozessoren in einem System. Ich wüsste nicht, wie man in absehbarer Zeit  technisch toppen sollte.

Vas "Idee" ist eigentlich eine Umsetzung von dem, auf das alle IT-Berater und Mangermagazine "geil" sind und Amazon und Microsoft auch schon anbieten: Cloud-Computing (Software runter vom lokalen Rechner) und Software-As-A-Service (Software nicht kaufen, sondenr nur Nutzungszeit kaufen). Alles runter vom lokalen Computer und rein in die Cloud ("abstrakter leistungsfähiger Computer im Internet"). In der Cloud läuft dann transaprent Deine Software und Du brauchst nicht drum kümmern dass Dein Rechner veraltet oder zu leistungsschwach wird, Du brauchst nur einen relativ simplen Rechner als Terminal. Brauchst Dich nicht um Datensicherung usw kümmern. Cloud-Computing ist grade groß in Mode, drum wollte ich daruf hinweisen, was Vas inspiriert haben könnte, auch wenn ich wegen Sicherheitsbedenken meine Computer-Daten nie und nimmer meinen Rechner in die Cloud auslagern würde...

VG
Gerhard
Up Topic Hauptforen / CSS-Forum / Rybka-Cluster. Die Gelddruck-Maschine
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill