Angebote zu "Cluster" (33 Treffer)

Kategorien

Shops

Advances in Grid and Pervasive Computing
114,09 € *
ggf. zzgl. Versand

Erscheinungsdatum: 21.04.2006, Medium: Taschenbuch, Einband: Kartoniert / Broschiert, Titel: Advances in Grid and Pervasive Computing, Titelzusatz: First International Conference, GPC 2006, Taichung, Taiwan, May 3-5, 2006, Proceedings, Auflage: 2006 // 2006. 2006, Redaktion: Chung, Yeh-Ching // Moreira, José E., Verlag: Springer-Verlag GmbH // Springer Berlin, Sprache: Englisch, Schlagworte: Mobile Computing // Distributed Data Processing // Informationssystem // Verteiltes System // EDV // Cluster // Grid Computing // Internet // Suchmethoden // Spezielle Anwender // Maschine // Suchmaschine // Netzwerk // elektronisch // Algorithmus // Theorie // Software-Entw // Software Engineering // Recherche // Information Retrieval // Mathematik // Informatik // Computer // Allgemeines // Betriebssystem // Operating System // Netzwerk-Hardware // Algorithmen und Datenstrukturen // Informationsrückgewinnung // Theoretische Informatik // Systemanalyse und // design // Supercomputer // E-Book-Reader // Tablets // Handheld-Geräte: Anwenderinformation // Verteilte Systeme // Betriebssysteme, Rubrik: Datenkommunikation // Netze, Mailboxen, Seiten: 667, Abbildungen: Bibliographie, Reihe: Lecture Notes in Computer Science (Nr. 3947), Informationen: Book, Gewicht: 1139 gr, Verkäufer: averdo

Anbieter: averdo
Stand: 24.02.2020
Zum Angebot
Distributed, High-Performance and Grid Computin...
66,89 € *
ggf. zzgl. Versand

Erscheinungsdatum: 03.01.2007, Medium: Taschenbuch, Einband: Kartoniert / Broschiert, Titel: Distributed, High-Performance and Grid Computing in Computational Biology, Titelzusatz: International Workshop, GCCB 2006, International Workshop, GCCB 2006, Eilat, Israel, January 21, 2007, Proceedings, Auflage: 2007, Redaktion: Dubitzky, Werner // Schuster, Assaf // Sloot, Peter M. A. // Schroeder, Michael // Romberg, Mathilde, Verlag: Springer-Verlag GmbH // Springer Berlin, Sprache: Englisch, Schlagworte: Bioinformatik // Informatik // Genom // Vererbung // Erbgut // Internet // Programmierung // Distributed Data Processing // Informationssystem // Verteiltes System // EDV // Cluster // Grid Computing // Suchmethoden // Spezielle Anwender // Maschine // Suchmaschine // Netzwerk // elektronisch // Algorithmus // Programmieren // Recherche // Information Retrieval // Informationstechnologie // IT // Technologie // Theorie // Software-Entw // Software Engineering // Datenverarbeitung // Anwendungen // Betrieb // Verwaltung // Netzwerk-Hardware // Algorithmen und Datenstrukturen // Datenbankprogrammierung // Informationsrückgewinnung // Medizinische Informatik // DV-gestützte Biologie // Supercomputer // Verteilte Systeme // Webprogrammierung // Informationstechnik // allgemeine Themen // Computeranwendungen in Industrie und Technologie // Unternehmensanwendungen, Rubrik: Informatik // EDV, Sonstiges, Seiten: 192, Abbildungen: Bibliographie, Reihe: Lecture Notes in Computer Science (Nr. 4360), Informationen: Book, Gewicht: 327 gr, Verkäufer: averdo

Anbieter: averdo
Stand: 24.02.2020
Zum Angebot
On the Move to Meaningful Internet Systems 2006...
146,69 € *
ggf. zzgl. Versand

Erscheinungsdatum: 26.10.2006, Medium: Taschenbuch, Einband: Kartoniert / Broschiert, Titel: On the Move to Meaningful Internet Systems 2006: OTM 2006 Workshops 1, Titelzusatz: OTM Confederated International Conferences and Posters, AWeSOMe,CAMS,COMINF,IS,KSinBIT,MIOS-CIAO,MONET,OnToContent,ORM,PerSys,OTM Academy Doctoral Consortium, RDDS,SWWS,SeBGIS 2006, Montpellier, France, October 29 - November 3, 2006, Proceedings, Part I, Auflage: 2006, Redaktion: Tari, Zahir, Verlag: Springer-Verlag GmbH // Springer Berlin, Sprache: Englisch, Schlagworte: Agent // EDV // Agentensystem // Biometrie // Data Mining // Datensicherheit // Internet // Geoinformationssystem // GIS // Informationssystem // RFID // Radio Frequency Identification // Semantic Web // World Wide Web // Microsoft SharePoint // Webservices // Portal // Web Services // Cluster // Grid Computing // Suchmethoden // Spezielle Anwender // Maschine // Suchmaschine // Netzwerk // elektronisch // Algorithmus // Programmieren // Data Warehouse // Informationsmanagement // Recherche // Information Retrieval // Kryptografie // Verschlüsselung // Schnittstelle // Informationstheorie // Netz // Theorie // Software-Entw // Software Engineering // Netzwerk-Hardware // Algorithmen und Datenstrukturen // Datenbankprogrammierung // Data Warehousing // Informationsrückgewinnung // Verschlüsselungstechnologie // Interfacedesign // Benutzerfreundlichkeit // Usability // Künstliche Intelligenz // Supercomputer // Datenschutz // Geographische Informationssysteme // und Fernerkundung // Netzwerksicherheit, Rubrik: Informatik, Seiten: 1009, Abbildungen: Bibliographie, Reihe: Lecture Notes in Computer Science (Nr. 4277) // Information Systems and Applications, incl. Internet/Web, and HCI, Informationen: Book, Gewicht: 1559 gr, Verkäufer: averdo

Anbieter: averdo
Stand: 24.02.2020
Zum Angebot
Lösung des Traveling-Salesman-Problems mittels ...
17,99 € *
ggf. zzgl. Versand

Lösung des Traveling-Salesman-Problems mittels eines Genetischen Algorithmus auf einem HPC-Cluster ab 17.99 EURO 1. Auflage

Anbieter: ebook.de
Stand: 24.02.2020
Zum Angebot
Strategien zur lokalen adaptiven Gitterverfeine...
45,80 € *
ggf. zzgl. Versand

Realistische Problemstellungen in der numerischen Strömungssimulation sind häufig gekennzeichnet durch eine hohe Anzahl von Unbekannten, da es notwendig ist, das Rechengebiet fein zu diskretisieren, um alle Effekte der Strömung zu erfassen. Dies hat einen hohen Speicherplatzbedarf und große Rechenzeiten zur Folge.Zwei Verfahren zur Effizienzsteigerung bei der Berechnung solch komplexer Strömungsprobleme sind die lokale Gitterverfeinerung und das Mehrgitterverfahren. Beim Verfahren der Gitterverfeinerung werden lokal nur in Gebieten mit hohem Diskretisierungsfehler Gitterpunkte eingefügt. Somit wird gegenüber einer Verfeinerung des gesamten Rechengebietes eine Einsparung an Gitterpunkten bei gleichbleibender Genauigkeit des Ergebnisses erreicht. Das geometrische Mehrgitterverfahren nutzt bei der Berechnung mehrere Gitterebenen mit unterschiedlich feiner Diskretisierung.In dieser Arbeit werden die lokale Gitterverfeinerung und das Mehrgitterverfahren miteinander kombiniert, um ein hohes Maß an Effizienz zu erreichen. Es werden Fehlerschätzer eingesetzt, um die zu verfeinernden Bereiche adaptiv ohne Eingriff des Nutzers bestimmen zu können.Der entwickelte Algorithmus wird in einen blockstrukturierten Löser für komplexe Geometrien implementiert. Es wird zum einen eine Strategie zur blockweisen Gitterverfeinerung entwickelt, zum anderen eine Strategie zur deutlich lokaleren Verfeinerung auf Basis der einzelnen Gitterzellen.Um den Verfeinerungsalgorithmus realisieren zu können, müssen die einzelnen Bausteine entwickelt und implementiert werden, dazu gehören Fehlerschätzer, Cluster-Algorithmen zum Regruppieren der markierten Gitterzellen zu Blöcken, Flusskorrekturverfahren, sowie Interpolationsverfahren und Diskretisierungsmethoden höherer Ordnung zur Gewinnung der Tochtergitter- Randbedingungen. Es werden jeweils mehrere Verfahren vorgestellt und numerisch untersucht.Die Untersuchung der Strategien zur lokalen Gitterverfeinerung wird an Hand von zwei Problemfällen mit unterschiedlicher Komplexität durchgeführt und zeigt das Potenzial zur deutlichen Effizienzsteigerung gegenüber Berechnungen mit Mehrgitterverfahren ohne Verfeinerungsstrategie.

Anbieter: Dodax
Stand: 24.02.2020
Zum Angebot
Dynamischer Lastausgleich für Multi-Domain-Cluster
49,00 € *
ggf. zzgl. Versand

Inhaltlich unveränderte Neuauflage. Die Simulation physikalischer Modelle ist ein wichtiges Werkzeug in der Grund la genforschung. Der dafür notwendige Rechenaufwand erfordert oftmals den Einsatz von spezialisierter Hardware. Um bestehende Infra struk turen besser auszunutzen, können jedoch auch vorhanden Rechner zu einem Multi-Domain-Cluster verbunden werden. Falls die parallelen Simulations modelle lokal schwankende Rechenlast erzeugen, hängt die Effizienz der Ver ar beitung oftmals vom Einsatz eines dynamischen Lastausgleichs-Algorithmus (DLB) ab. Die Anpassung eines solchen Algorithmus an die Eigenheiten der Simu lation und des Multi-Clusters ist bislang jedoch ein aufwändiges Unter fangen. Abhilfe kann der hier vorgestellte selbst kalibrierender DLB-Algorith mus leisten. Kernstück dieses Algorithmus ist eine Heuristik zur Nutzenab schätzung des Lastausgleichs. Durch angepasste Aufteilung der Arbeitslast wird außerdem der Kommunikationsbedarf im Einzel- und im Multi-Cluster-Be trieb minimiert.

Anbieter: Dodax
Stand: 24.02.2020
Zum Angebot
Clusteranalyse mit SPSS
49,95 € *
ggf. zzgl. Versand

Dieses Buch führt ein in die grundlegenden Ansätze des Clusterns, Segmentierens und der Faktorextraktion. Kapitel 1 führt ein in die Clusteranalyse. Nach einem intuitiven Beispiel anhand des Clusterns von Muscheln am Strand, und dem zugrundeliegenden, oft unausgesprochenen Cluster-Prinzipien werden u.a. die hierarchische, partitionierende und das TwoStep-Verfahren vorgestellt. Bei der hierarchischen Clusteranalyse (CLUSTER) werden die diversen Maße (z.B. quadrierte euklidische Distanz, Pearson-Korrelation, Chi²-Maß etc.) und die jeweiligen Algorithmen (Density, Linkage, Ward etc.) einschl. ihrer Bias (z.B. Ausreißer, Chaining) erläutert. Anhand zahlreicher Beispiele wird erläutert, wie Intervalldaten, Häufigkeiten, Kategorialdaten, sowie gemischte Daten geclustert werden. Bei der partitionierenden Clusterzentrenanalyse (k-means, QUICK CLUSTER) lernen Sie Teststatistiken zur Bestimmung der optimalen Clusterzahl kennen (z.B. Eta², F-max, nicht im original SPSS Leistungsumfang enthalten), sowie die ausgewählte Clusterlösung auf Interpretierbarkeit, Stabilität und Validität zu prüfen. Bei der Two-Step Clusteranalyse (TWOSTEP CLUSTER) lernen Sie die Clusterung von gemischten Daten anhand eines Scoring-Algorithmus kennen Darüber hinaus lernen Sie Kriterien für die Beurteilung einer guten Clusterlösung kennen, wie auch alternative grafische und logische Ansätze zur Clusterung von auch Daten im String-Format. Kapitel 2 führt ein in die Gruppe der Faktorenanalyse mit SPSS. Die Faktorenanalyse (factor analysis, FA) ist ein Sammelbegriff für verschiedene Verfahren, die es ermöglichen, aus einer großen Zahl von Variablen eine möglichst geringe Anzahl von (nicht beobachteten) 'Faktoren' zu erhalten ('extrahieren'). Die Faktorenanalyse geht nicht von unabhängigen oder abhängigen Variablen aus, sondern behandelt alle Analysevariablen unabhängig von einem Kausalitätsstatus. Dieser Kurs führt in das Grundprinzip und Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) und ihre Funktion. Vorgestellt werden Kriterien zur Bestimmung, Interpretation und Benennung der Faktoren. Dieser Kurs stellt ausschließlich die Variante der explorativen Faktorenanalyse (EFA) vor (R-Typ). Abschliessend werden eine Faktorenanalyse für Fälle (Q-Typ Faktorenanalyse vorgestellt, sowie eine Matrix-Variante, die dann zum Einsatz kommen kann, wenn die korrelationsanalytischen Voraussetzungen der Faktorenanalyse nicht erfüllt sind. Die Überprüfung der Voraussetzungen und die Interpretation der Statistiken werden an zahlreichen Beispielen geübt. Kapitel 3 stellt die Diskriminanzanalyse (DA, syn.: DFA, Diskriminanzfunktionsanalyse) vor. Das zentrale Ziel dieses Ansatzes ist, die beste Trennung (Diskriminanz) zwischen den Zugehörigkeiten einer abhängigen Gruppenvariable für mehrere unabhängige Einflussvariablen zu finden. In anderen Worten, die Diskriminanzanalyse liefert die Antwort auf die Frage: Welche Kombination von Einflussvariablen erlaubt eine maximal trennende Aufteilung der Fälle in die bekannten Ausprägungen einer Gruppe? Weitere, damit in Zusammenhang stehende Fragen können sein: Auf welche Weise werden die Fälle klassiert, wie genau werden die Fälle klassiert (erkennbar an der Anzahl der Fehlklassifikationen), und wie sind die schlussendlich entstehenden Klassifizierungen zu interpretieren? Es werden u.a. diverse Methoden der Variablenselektion (direkt, schrittweise), sowie auch die Berechnung und Interpretation multipler schrittweiser Diskriminanzanalysen mit mehreren ermittelten Funktionen vorgestellt (einschliesslich Lambda, Box-Test, Kreuzvalidierung (Interpretation von Kovarianz-Matrizen), das Identifizieren von Multikollinearität, sowie Gebietskarten (Territorien). Weitere Kapitel stellen Möglichkeiten des Clusterns und Segmentierens (u.a. mit CLEMENTINE, Entscheidungsbäume und ausgewählte Cluste

Anbieter: Dodax
Stand: 24.02.2020
Zum Angebot
Die Methode der hierarchischen Clusteranalyse
24,90 CHF *
zzgl. 3,50 CHF Versand

Studienarbeit aus dem Jahr 2013 im Fachbereich Soziologie - Methodologie und Methoden, einseitig bedruckt, Note: 1,0, Universität Trier, Veranstaltung: Empirische Sozialforschung, Sprache: Deutsch, Abstract: Die Methode der Clusteranalyse unterscheidet sich deutlich von vielen anderen multivariaten Verfahren, da das Ziel nicht der Nachweis einer Kausalität ist, sondern vielmehr die Einteilung einer Grundgesamtheit in kleinere Einheiten. Spezifischer ausgedrückt dient die Clusteranalyse dazu, homogene Subgruppen aus einer heterogenen Gruppe herauszuarbeiten. Somit ist das Verfahren ein klassifikatorisches und kein kausal-analytisches. Die erste Problemstellung und gleichzeitig das Ziel der Clusteranalyse ist die Bestimmung der Klassenanzahl. Diese wird nicht vorab festgelegt, sondern ergibt sich vielmehr aus der Beziehungsstruktur der Objekte. Um die Anzahl zu ermitteln, gibt es verschiedene Möglichkeiten, welche nicht alle vorgestellt werden können. Vielmehr beschränkt sich diese Arbeit auf die hierarchische Clusteranalyse, da diese in der Praxis die weiteste Verbreitung gefunden hat. Bei der hierarchischen Clusteranalyse ist das Finden der Klassenanzahl ein Prozess, da die einzelnen Merkmalsträger auf Grund ihrer Ähnlichkeiten zueinander zu Gruppen zusammengefasst werden. Dies ist ein mehrstufiger Prozess, der im ersten Schritt einzelne Merkmalsträger zusammenfasst und inden darauffolgenden Stufen dann Subgruppen zusammenfügt. Die Anzahl der Klassen hängt somit auch davon ab wie oft man den Gruppierungsprozess vollzieht (Litz 2000: 384 & 385). Daher wird der Cluster-Algorithmus bis zum Maximum, so dass alle Elemente entweder in einem Cluster enthalten sind oder es so viele Cluster wie Objkete gibt, durchlaufen gelassen. Die optimale Anzahl der Gruppen muss der Forscher aus den offerierten Möglichkeiten selbstauswählen.

Anbieter: Orell Fuessli CH
Stand: 24.02.2020
Zum Angebot
X-Means: Ein Algorithmus zur Clusterbildung unt...
15,90 CHF *
zzgl. 3,50 CHF Versand

Studienarbeit aus dem Jahr 2006 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1,7, Friedrich-Schiller-Universität Jena (Wirtschaftswissenschaftliche Fakultät), Veranstaltung: Datenanalyse 2, 9 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: X-Means: Extending K-means with Efficient Estimation of the Number of Cluster Aufbauend auf k-means greift der x-means Algorithmus die drei hauptsächlichen Probleme von k-means auf und versucht diese zu umgehen bzw. zu beheben. Dabei wird vom Benutzer im Gegensatz zu k-means nicht die Angabe einer Klassenanzahl k gefordert, sondern lediglich ein Bereich in welchem die optimale Klassenanzahl wahrscheinlich liegen wird. Nun werden ausgehend von der unteren Grenze des angegebenen Bereiches kontinuierlich neue Centroide hinzugefügt. Dies geschieht indem die alten 'Vatercentroide' aufgespalten werden. Aus jedem Vater werden auf diese Weise zwei 'Söhnecentroide' erstellt. Ob Vater- oder Söhnecentroide beibehalten werden wird auf Grundlage einer Punktbewertung mittels BIC ermittelt. Je nachdem wessen Punktzahl höher ausfällt, werden entweder die Söhne oder der Vater als Klassenmittelpunkte verworfen. Danach wird grundsätzlich jenes Gesamtmodell ausgegeben welches nach einem ewertungskriterium die höchste Punktzahl erreicht hat. Der x-means Algorithmus besteht grundsätzlich aus zwei Schritten: 1. Improve Params 2. Improve Structure Der erste Schritt entspricht einem herkömmlichen k-means Durchlauf. Der zweite Schritt ermittelt, welche Centroide gesplittet werden müssen um das Ergebnis zu verbessern. Auf dieser Basis und unter Einbeziehung eines kd-tree, welcher die Durchläufe der k-means Iterationen erheblich beschleunigt, werden sowohl die optimale Anzahl der Cluster wie auch die Cluster als solche ausgegeben. Dadurch wird es möglich viel grössere Datenmengen in viel kürzerer Zeit zu analysieren.

Anbieter: Orell Fuessli CH
Stand: 24.02.2020
Zum Angebot