Große Auswahl an günstigen Büchern
Schnelle Lieferung per Post und DHL

Bücher der Reihe Duv: Datenverarbeitung

Filter
Filter
Ordnen nachSortieren Reihenfolge der Serie
  • - Hybride Verarbeitung Von Lokalisierung
    von Simone Pribbenow
    54,99 €

  • - Ein Praxisrelevanter Beitrag Zum Entwurf Effizienter Paralleler Algorithmen
    von Lars Kuhnel
    54,99 €

  • - Erhebung, Analyse Und Modellierung Von Wissen
    von Andreas Lenz
    54,99 €

  • - Ein mehrstufiger Ansatz
    von Harald Kirchner
    54,99 €

  • - Grundlagen, Methoden und Perspektiven der Fehlerdiagnose
    von Klaus-Dieter Althoff
    79,99 €

  • von Franco Di Primio
    54,99 €

  • - Formale Definitionen, Anwendungsbeispiele und Werkzeugunterstutzung Herausgegeben und eingeleitet von Manfred Nagl
    von Andreas Schurr
    54,99 €

  • von Klaus Zeppenfeld
    54,99 €

    1.1 Motivation Parallele Systeme haben im letzten Jahrzehnt einen rasanten Entwicklungs- schub erfahren und gelten derzeit als Antwort auf die informationstechnischen Fragen der Zukunft, bei denen es zum einen den immens gestiegenen Bedarf an Rechenleistung und zum anderen die Erwartung eines besseren Preis- Lei- stungs-Verhaltnisses zu erfullen gilt. Im Bereich des scientific computing, in dem z.B. die Losung von Problemen der Stromungsmechanik, der Simulation technischer Vorgange oder der Optimie- rung komplexer Systeme einen hohen Bedarf an Rechenleistung erfordert, der mit Vektorrechnern der herkommlichen Bauweise nicht mehr erreicht werden kann, lost man diese Probleme in akzeptabler Zeit durch Aufteilen des Gesamt- problems in kleinere Unterprobleme, die dann parallel berechnet am Ende zur Gesamtlosung verbunden werden. Ist der Bedarf an Hochstrechenleistung nicht ganz so gro, so erhoffen sich die Anwender, etwa aus den Bereichen Daten- banken oder kunstliche Intelligenz, durch den Einsatz von Parallelrechnern eine kostengunstige Alternative zu den wesentlich teureren Mainframes bei gleicher Leistung. Obwohl die Hardware der Parallelrechner den steigenden Anforderungen an die Rechenleistung gewachsen ist, so kann man dies von der Software, die auf die- sen Systemen eingesetzt werden kann, noch nicht behaupten. Die parallele Software kam auch in den letzten Jahren nicht aus dem universitaren For- schungsstadium hinaus und kann deshalb dem leistungs- bzw. effizienzhungri- gen Anwender noch nicht als universelle Komplettlosung angeboten werden.

  • - Vortrage Der 11. Gl-Fachtagung UEber Rechenzentren Am 30. November Und 1. Dezember 1995 in Goettingen
    von Gesellschaft Fur Informatik
    54,99 €

    Zur Verarbeitung der Informationen eines Unternehmens ist heute eine komplexe Infrastruktur erforderlich. Durch das Zusammenwirken von Hardware, Software, Übertragungsleitungen und -elektronik, aber auch von Regelwerken, Organisati­ onsplänen, Instanzen und vor allem von Menschen entsteht ein DV­ Versorgungssystem, das die notwendigen vielfaltigen Dienste erbringt. Sein Funktionieren ist von entscheidender Bedeutung für die Arbeit des Unternehmens und hat erheblichen Einfluß auf dessen Leistungsfahigkeit und Wettbe­ werbssituation. Aufbau und Arbeitsweise des Versorgungs systems sind neue wissenschaftliche Untersuchungsfelder, in denen sich viele technische und orga­ nisatorische Fragen stellen. Der Blick auf dieses DV-Versorgungssystem als Ganzes und auf seine Interak­ tion mit dem Gesamtsystem des Unternehmens ist für die heutige Sichtweise der Datenverarbeitung sehr charakteristisch. Sie führt auch zu einem neuen Bild vom Rechenzentrum als einer wichtigen Komponente des Versorgungs systems. Des­ halb ist es auch sachgerecht, die 11. Fachtagung der Gesellschaft für Informatik über Rechenzentren der Organisation und dem Betrieb des D V-V ersorgungs­ systems zu widmen. Dem Verein ZKI Zentren für Kommunikation und Informationsverarbeitung in Lehre und Forschung e.V. danke ich für seine Bereitschaft, die Tagung zu diesem Thema finanziell zu unterstützen. Es trifft sich außerdem gut, daß die Gesell­ schaft für wissenschaftliche Datenverarbeitung mbH Göttingen, die gerade ihr fünfundzwanzigjähriges Bestehen feiert, intensiv an der Einführung eines neuen Betriebskonzeptes für ihr Rechenzentrum arbeitet und deshalb gern die örtliche Veranstaltung der Tagung übernommen hat.

  •  
    54,99 €

    beschreibt wesentliche Grund­ prinzipien für die effektive Anwendung von Softwaremetriken unter dem Hintergrund eigener reichhaltiger Erfahrungen bei der Konzeption und VI Anwendung umfangreicher " Metrikenprogramme" für verschiedene Fir­ men.

  • von Joerg Desel
    54,99 €

    Die statische Struktur eines markierten Petrinetzes ist durch das Netz selbst und die anfangliche Verteilung der Marken gegeben. Sein Verhalten wird durch die Menge seiner Ablaufe oder durch seinen Erreichbarkeitsgraphen beschrie­ ben. Struktur und Verhalten hiingen eng zusammenj so lassen sich dynamische Systemeigenschaften oft mit Hilfe struktureller Methoden wie Deadlocks oder S-Invarianten beweisen. Fur die Analyse eines markierten Petrinetzes auf dynamische Eigenschaften reichen strukturelle Methoden dagegen meist nicht aus. So sind die meisten dynamischen Eigenschaften -wie z.B. die Erreich-., barkeit einer gegebenen Markierung - zwar entscheidbar, doch haben diese Entscheidungsprobleme sehr groBe untere Komplexitatsschranken, die wenig­ stens dem Konstruktionsaufwand des Erreichbarkeitsgraphen entsprechen. Eine effiziente Analyse basiert notwendigerweise auf der Struktur eines mar­ kierten Netzes. Sie ist also nur fur Netze moglich, deren relevante dynamische Eigenschaften durch strukturelle Eigenschaften charakterisiert werden. Fur Free-Choice-Petrindze wurde Anfang der 70er Jahren von Fred Commoner (damals ein Student am MIT) eine entsprechende Charakterisierung der dyna­ mischen Eigenschaft Lebendigkeit angegeben: ein Free-Choice-Netz ist genau dann lebendig, wenn jeder Deadlock einen markierten Trap enthiilt. Leider ermoglicht dieses Ergebnis aber keine effiziente Lebendigkeitsanalyse, denn das Nicht-Lebendigkeitsproblem fur Free-Choice-Netze wurde als NP-vollstandig nachgewiesen.

  • - Moeglichkeiten Einer Intelligenteren Textverarbeitung
    von Frank Oemig, Gerhard Heyer & Armin B Cremers
    54,99 €

    1.1 "State of the Art" Textverarbeitungsprogramme unterliegen wie jedes andere Softwarepaket auch einem stetigen Entwicklungsprozeß. Die allerersten Programme benötigten dabei einen Hauptspeicher von nicht einmal 64KB, der heute bei Programmen in der 5. oder aber auch schon 6. Version auf 640KB angewachsen ist. Mit der Programm­ größe ist aber auch die Funktionalität angewachsen. Die Programme zum Verarbeiten der Texte müssen heute in drei große Klassen unterteilt werden. Früher waren es nur die Texteditoren und die Textverarbeitungs­ programme, heute kommen jedoch auch sogenannte DTP-Programme hinzu, die nach dem WYSIWYG-Prinzip arbeiten. 1 Die in diesem Buch beschriebenen Ergebnisse stammen aus einer Studie, die im Auftrag der TA Triumph-Adler AG, Nürnberg, durchgeführt worden ist, und sollen die Möglichkeiten aufzeigen, die für die weitere Entwicklung von Textverarbeitungs-und DTP -Programmen in den Bereichen des Schriftsatzes und der Typographie bestehen. 8 1 Einführung strukturelle Aufteilung früher: Zweiteilung heute: Dreiteilung Desktop-Publishing Texteditoren Textverarbeitungsprogramme Abb. 1.1: Strukturelle Auf teilung der Programme Bei den Texteditoren handelt es sich um Programme, die ASCII-Texte verarbeiten, d.h., sie können keine spezifischen Steuerzeichen lesen bzw. zurückschreiben. Die Texte bestehen aus einer Abfolge von Zeilen, die hauptsächlich die üblichen druckbaren Zeichen und Tabulatoren enthalten. Diese Texte dienen fast aus­ schließlich dazu, Programmtexte zu erfassen und anschließend von Compilern übersetzen zu lassen.

  • - Ein Beitrag Zur Cognitive Science Aus Der Perspektive Des Konstruktivismus Und Des Konnektionismus
    von Markus F Peschl
    54,99 €

    316. Um über die Bedeutung des Wortes "Denken" klar zu werden, schauen wir uns selbst beim Denken zu: Was wir da beobachten, werde das sein, was das Wort bedeutet! - Aber so wird dieser Begriff eben nicht gebraucht. (Es wäre ähnlich, wenn ich, ohne Kenntnis des Schachspiels, durch genaues Beobachten des letzten Zuges einer Schachpartie herausbringen wol/te, was das Wort "mattsetzen" bedeutet. ) L. Wittgenstein, Philosophische Untersuchungen 1. 1 Thesen, Motivation & Aufbau Die Dynamik in der Entwicklung der Cognitive Science hat in den letzten Jahren stark zugenommen und wird durch aufeinanderprallende Positionen, die scheinbar nicht ver­ einbar sind, weiter verstärkt. Wir stehen inmitten eines Paradigmenwechsels (im Sinne von T. S. KuHN [KUHN 67]), der sich in der Verlagerung des (Forschungs-)Interesses von symbolmanipulierenden Systemen hin zum subsymbolischen Paradigma des Paral­ lel Distributed Processing manifestiert. In diesem Buch werden die epistemologischen und konzeptuellen Probleme und Implikationen sowohl aus naturwissenschaftlicher als auch aus erkenntnistheoretischer Perspektive diskutiert. Dies wollen wir in drei Schrit­ ten tun: (i) Diskussion der Grundlagen, Begriffsklärungen und Vorstellung der Konzepte des (Radikalen) Konstruktivismus (Kapitel 2) und des Parallel Distributed Processing (Kapitel 3). Dabei steht die Darstellung des Bezuges zur Cognitive Science und zum kognitiven Modellieren im Vordergrund. (ii) In einem zweiten Schritt werden wir uns mit der Problematik der orthodoxen [i. e. symbolverarbeitenden) AI (Kapitel 4) und der traditionellen Auffassung von Cognitive Science (Kapitel 5) auseinandersetzen; durch das Explizitmachen der 1.

Willkommen bei den Tales Buchfreunden und -freundinnen

Jetzt zum Newsletter anmelden und tolle Angebote und Anregungen für Ihre nächste Lektüre erhalten.