buchspektrum Internet-Buchhandlung

Neuerscheinungen 2016

Stand: 2020-02-01
Schnellsuche
ISBN/Stichwort/Autor
Herderstraße 10
10625 Berlin
Tel.: 030 315 714 16
Fax 030 315 714 14
info@buchspektrum.de

Tobias Drechsel

Automatisierter Handel. Hat der Mensch am Finanzmarkt noch eine Daseinsberechtigung?


2016. 74 S. 10 Abb. 270 mm
Verlag/Jahr: IGEL VERLAG RWS 2016
ISBN: 3-9548534-2-6 (3954853426)
Neue ISBN: 978-3-9548534-2-7 (9783954853427)

Preis und Lieferzeit: Bitte klicken


Das laute Zeitalter der Finanzmärkte, bei denen Händler auf dem Börsenparkett einen erbitterten Preiskampf geführt haben, sind vorbei. Zunehmend drängen sich hochentwickelte und leistungsstarke Rechenzentren in den Vordergrund des globalen Finanzgeschehens. Bei den unbegrenzt erscheinenden Möglichkeiten, die die neue Art der automatisierten Datenverarbeitung bietet, stellt sich die Frage, inwieweit das menschliche Handeln diesen Prozess noch unterstützen kann. Unterbewusste Empfindungen aus der Verankerungsheuristik oder die Selbstüberschätzung stören das Handelsgeschehen ähnlich wie die biologischen Limitierungen durch Schlaf und Aufmerksamkeitsspanne. Vollautomatisierte Handelsalgorithmen sind in ihrer Geschwindigkeit nur durch die physikalischen Grenzen der Lichtgeschwindigkeit begrenzt und besitzen gleichzeitig eine unglaublich niedrige Fehleranfälligkeit. Doch können Maschinen die komplexen Zusammenhänge der Weltwirtschaft richtig interpretieren und sind statisch implementierte Algorithmen in der Lage, langfristig erfolgreich am Markt zu agieren? Wie ist automatisierter Handel aus wirtschaftlicher, moralischer und rechtlicher Sicht einzuordnen?
Die Beantwortung dieser komplexen Fragestellungen erfordert einen tiefen Blick in die aktuelle Fachliteratur und aufbauend darauf weiterführende Gedanken und Ideen. Das vorliegende Buch betrachtet die Vor- und Nachteile von menschlichen und maschinellen Handelsentscheidungen aus verschiedensten Blickwinkeln und führt zu einem Ergebnis der optimalen Zusammenarbeit beider Welten. Das Fazit beinhaltet sowohl theoretische Modelle als auch Inspirationen zur praktischen Umsetzung.
Textprobe:
Kapitel 5.2.2.: Verarbeitung:
Innerhalb der Datenverarbeitung wird aus den Rohdaten ein Fundament an aggregierten Daten zusammengestellt, das als Basis für eine Handelsentscheidung dient. Die Aggregation bedeutet die Verdichtung von relevanten Datensätzen. Dies impliziert, dass irrelevante Daten nicht in der späteren Ergebnismenge inkludiert sind. Strategische Richtlinien und finanzwirtschaftliche Dogmen geben, wie bereits erwähnt, Aufschluss über die Relevanz von Informationen. Daten, die auf technischer Ebene beschädigt sind, verlieren ihren Informationsgehalt und werden ausgefiltert. Die Prüfung auf technische Validität ist optimalerweise maschinell durchzuführen, da dies schneller ist und eine geringere Fehlerquote aufweist. Nachdem die Datenmenge ausschließlich technisch valide Daten enthält, können diese gefiltert und aggregiert werden.
Da sich eine Anlage über eine Zeitspanne erstreckt, ist der Parameter Zeit auch bei den Daten elementar, um den Kontext zu erhalten. Um beispielsweise Aussagen über die Entwicklung des Euros zu treffen, können Preisdaten ohne einen Zeitstempel nicht interpretiert werden. Demnach müssen alle beschafften Daten einen zeitlichen Kontext besitzen. Weiterhin ist festzustellen, dass die ausschlaggebenden Daten wie Preise, Nachrichten oder Fundamentaldaten immer in numerischen oder textuellen Formaten publiziert werden. Der Prozessschritt der Verarbeitung lässt sich daher unterteilen in die Verarbeitung von Textdaten und numerischen Daten.
Numerische Finanzdaten werden grundsätzlich mithilfe statistischer oder finanzmathematischer Methoden aggregiert. Diese basieren auf mathematischen Berechnungen, die von Computern vollständig übernommen werden können. Besonders aufgrund der im Finanzbereich herrschenden großen Datenbasis und der dadurch benötigten Rechenleistung bringt die maschinelle Verarbeitung zeitliche und qualitative Vorteile.
Textdaten sind aufgrund ihrer Syntax und Semantik schwerer zu aggregieren als numerische Werte. Am Finanzmarkt stellen Marktberichte, Nachrichten oder Regulierungsrichtlinien Beispiele für Textdaten dar. Texte sind in der Lage, Emotionen des Autors abzubilden. Diese aus einem Text fehlerfrei zu extrahieren, ist gegenwärtiger Forschungsstand. Ansätze der Sentiment-Analyse versuchen anhand von statistischen Verfahren zu bestimmen, ob ein bestimmter Text positiv oder negativ behaftet ist. Sprachliche Phänomene wie Ironie und exotische Verneinungen sind dabei Barrieren, die eine programmatische Auswertung erschweren.