Inhaltsangabe: Zusammenfassung: Zusammen mit dem Bedarf an Kennzahlen
für die Abbildung wirtschaftlicher Vorgänge wächst auch das Risiko,
welches aus fehlerhaften Daten resultiert. So sind neben den
Finanzbehörden des Staates insbesondere Versicherungen,
Kreditkarteninstitute und Telefongesellschaften von betrügerischen
Handlungen betroffen. Aber auch große Unternehmen oder die Forschung,
insbesondere die Medizin und Pharmazie, bei denen häufig viel Geld am
Ausgang einer empirischen Studie hängt, leiden unter gefälschten
Angaben. Um dieses Risiko gefälschter Daten zu handhaben, wurden zur
Vermeidung von fehlerhaften Daten Revisionssysteme für Unternehmen bzw.
Prüfsysteme im weiteren Sinne eingeführt. Diese basieren grundsätzlich
immer auf der Bildung von geeigneten Stichproben zur Prüfung, da eine
vollständige Prüfung aller Vorgänge auf Grund deren Menge nicht
durchführbar ist. Die Wahl dieser Prüfstichproben kann durch
mathematisch-statistische Verfahren unterstützt werden. Ziel dieser
Arbeit ist es, verschiedene Ansätze für die Analyse von Einzeldaten
vergleichend vorzustellen und auf Daten aus der Praxis anzuwenden. Dabei
werden ausschließlich Ansätze zur Erkennung von Betrug in Einzelangaben
ohne direkten Zusammenhang betrachtet. Dies sind insbesondere rein
statistische Ansätze im Umfeld von Benford's-Law, Verfahren auf Basis
von Mischungsmodellen und Ansätze mit Hilfe der
Partitionierungsverfahren. Alle Verfahren basieren auf der
Mantissenstatistik, welche von der Größe der Zahl abstrahiert und
lediglich die verwendeten Ziffern und ihre relativen Positionen
innerhalb der Zahl beschreibt. Ein weiteres Ziel ist die Betrachtung der
Mantissen einiger Standardverteilungen durch Simulationen. Dabei werden
insbesondere die Abhängigkeit der Mantissenverteilung von den Parametern
der Standardverteilung und der Basis untersucht. Ziel ist dabei, ein
tieferes Verständnis der Mantissenverteilungen zu gewinnen, um in
Zukunft verbesserte Ansätze zur Betrugserkennung bas