Matthias Thimm - Probabilistic Reasoning with Incomplete and Inconsistent Beliefs - 2012





Käuferschutz auf Catawiki
Ihre Zahlung wird von uns sicher verwahrt, bis Sie Ihr Objekt erhalten.Details ansehen
Trustpilot 4.4 | 131065 Bewertungen
Auf Trustpilot als hervorragend bewertet.
Matthias Thimm — Probabilistic Reasoning with Incomplete and Inconsistent Beliefs — Erste Auflage, Englisch Softcover, 336 Seiten, Erscheinungsjahr 2012, Wissenschaft; das Buch ist wie neu mit leicht verschmutztem Rückengelenk.
Vom Verkäufer bereitgestellte Beschreibung
Schlussfolgerungen mit ungenauen Informationen sind ein zentrales Thema im Bereich der künstlichen Intelligenz im Allgemeinen und der Wissensrepräsentation und des Schließens im Speziellen. Diese Veröffentlichung behandelt Informationen, die unvollständig, unsicher und widersprüchlich sein können. Es wird probabilistische bedingte Logik verwendet, die die Darstellung unsicherer Informationsteile durch probabilistische Konditionalien ermöglicht, d. h. Wenn-Dann-Regeln. Unsicherheit lässt sich durch Wahrscheinlichkeiten ausdrücken, die an diese Regeln gekoppelt sind, und Unvollständigkeit kann in diesem Rahmen durch auf dem Prinzip der maximalen Entropie basierendes Schlussfolgern behandelt werden. Dieses Buch konzentriert sich auf zwei wesentliche Fragestellungen, die bei der Darstellung von Wissen mit probabilistischer bedingter Logik auftreten. Auf der einen Seite betrachten wir das Problem widersprüchlicher Informationen, das z. B. entsteht, wenn mehrere Experten ihr Wissen teilen, um eine gemeinsame Wissensbasis aus probabilistischen Konditionalen zu erstellen. Wie in der klassischen Logik ist dies ein schwerwiegendes Problem, denn die Inkonsistenz einer Wissensbasis verhindert den Einsatz modellbasierter induktiver Inferenzansätze wie das Schließen nach dem Prinzip der maximalen Entropie. Auf der anderen Seite untersuchen wir eine Erweiterung der syntaktischen und semantischen Begrifflichkeiten der probabilistischen bedingten Logik auf den relationalen Fall. Wir erweitern zudem den Ansatz des Schlussfolgerns nach dem Prinzip der maximalen Entropie auf den Rahmen der relationalen probabilistischen bedingten Logik und untersuchen seine Eigenschaften. Das Buch ist wie neu. Der Rücken ist leicht verschmutzt, siehe Fotos.
Schlussfolgerungen mit ungenauen Informationen sind ein zentrales Thema im Bereich der künstlichen Intelligenz im Allgemeinen und der Wissensrepräsentation und des Schließens im Speziellen. Diese Veröffentlichung behandelt Informationen, die unvollständig, unsicher und widersprüchlich sein können. Es wird probabilistische bedingte Logik verwendet, die die Darstellung unsicherer Informationsteile durch probabilistische Konditionalien ermöglicht, d. h. Wenn-Dann-Regeln. Unsicherheit lässt sich durch Wahrscheinlichkeiten ausdrücken, die an diese Regeln gekoppelt sind, und Unvollständigkeit kann in diesem Rahmen durch auf dem Prinzip der maximalen Entropie basierendes Schlussfolgern behandelt werden. Dieses Buch konzentriert sich auf zwei wesentliche Fragestellungen, die bei der Darstellung von Wissen mit probabilistischer bedingter Logik auftreten. Auf der einen Seite betrachten wir das Problem widersprüchlicher Informationen, das z. B. entsteht, wenn mehrere Experten ihr Wissen teilen, um eine gemeinsame Wissensbasis aus probabilistischen Konditionalen zu erstellen. Wie in der klassischen Logik ist dies ein schwerwiegendes Problem, denn die Inkonsistenz einer Wissensbasis verhindert den Einsatz modellbasierter induktiver Inferenzansätze wie das Schließen nach dem Prinzip der maximalen Entropie. Auf der anderen Seite untersuchen wir eine Erweiterung der syntaktischen und semantischen Begrifflichkeiten der probabilistischen bedingten Logik auf den relationalen Fall. Wir erweitern zudem den Ansatz des Schlussfolgerns nach dem Prinzip der maximalen Entropie auf den Rahmen der relationalen probabilistischen bedingten Logik und untersuchen seine Eigenschaften. Das Buch ist wie neu. Der Rücken ist leicht verschmutzt, siehe Fotos.

