Kapitel 3 - Technologische Grundlagen


Wenn man die Hardware-Systemanforderungen typischer Spiele von vor zehn Jahren, vor fünf Jahren und heute vergleicht, ist eines sofort ersichtlich: die zugrundeliegende Technik hat sich rasant weiterentwickelt. Das ist zwar nicht unbedingt besonders verwunderlich, da gerade der PC, getreu dem Mooreschen Gesetz, einen weiten Weg kontinuierlichen Performance-Zuwachses zurückgelegt hat - mit den Urahnen der Homecomputer-Ära verbindet ihn in etwa so viel wie einen Ferrari mit einer Pferdedroschke.

Bemerkenswert ist allerdings, dass es sich dabei keineswegs um eine rein monokausale Entwicklung der Art "steigende Leistung der Hardware ermöglicht technisch immer anspruchsvollere Spiele" handelt, sondern teilweise eher um eine Wechselbeziehung. Sehr deutlich wird dies u. a. im Bereich der 3D-Graphik, doch dazu später mehr.

Der nachfolgende Abschnitt verschafft einen kurzen Überblick über den Entwicklungstand und die Problemstellungen der für die Produktion von aktuellen Online-Spielen relevanten soft- und hardwaretechnischen Bereiche. Der Fokus liegt dabei auf den FPS, da diesen hier fast überall eine klare Vorreiterrolle zukommt.

3.1 Verteilte Systeme

Eine der Schlüsseltechnologien schlechthin im Onlinegaming ist die Abstimmung der Client-Server-Kommunikation. Üblicherweise, das haben alle Genres gemeinsam, dient der Server dabei als zentrale Anlaufstelle: die Clients bauen nach Eingabe seiner IP-Adresse eine Verbindung auf, übermitteln gegebenenfalls noch ein Password, falls es sich nicht um einen öffentlichen Server handelt und gelangen dann in einen vorgeschalteten Chatroom (bei RTS) oder gleich ins laufende Spiel.

Von Ausnahmen wie den Browser Games abgesehen, handelt es sich dabei überwiegend um Thick Clients, während der Server ausschließlich für die Verwaltung der Spiellogik und den Abgleich der Spieleraktionen zuständig ist. Aufgrund der teilweise immensen und stetig weiter wachsenden Anzahl von Clients in modernen Online-Spielen gewinnt die Frage der Performanz und Skalierbarkeit der Server allerdings zunehmend an Bedeutung.

Während ältere Titel noch Protokolle wie IPX unterstützten und nur über Umwege [Kali] den Weg ins Internet fanden, basiert die Kommunikation heutzutage durchgehend auf TCP/IP und ergänzend, zwecks Authentifizierung, auf UDP.

3.1.1 Authentifizierung und Cheat Prevention

Die exakte Identifizierung einzelner Spieler hat sich mittlerweile aus mehreren Gründen flächendeckend durchgesetzt: dient sie bei kostenpflichtigen Diensten zum Nachweis der Teilnahmeberechtigung, so wird bei "offenen" Systemen durch die Anmeldung überprüft, ob ein Spiel legal erworben oder nur kopiert wurde. Der dem Produkt beiliegende Keycode ist dabei die Eintrittskarte für den jeweiligen Server und wird von den Spielern nur in seltensten Fällen an andere weitergegeben (Key Sharing), da zu jeder Zeit weltweit jeweils nur ein Teilnehmer mit einem bestimmten Key spielberechtigt ist. Dieses System verschafft den Produzenten von Onlinegames einen wesentlichen Wettbewerbsvorteil gegenüber der Sparte der Offlinegames, denn viele Spieler, die ansonsten eher dazu tendieren würden, sich ein Spiel zu kopieren, sind dadurch gezwungen, es käuflich zu erwerben. Gekauft wird in diesem Falle eigentlich nur der Key, wogegen das eigentliche Game oft bereits vorher auf der Festplatte schlummert [GS42].

Während dabei in geschlossenen Systemen, wie bei RPG und RTS üblich, der Key direkt an den jeweiligen Spielserver im Betreibernetzwerk übermittelt wird, erfolgt die Handhabung bei FPS, wo meist jeder Käufer des Spiels damit auch das Recht erwirbt, einen eigenen Server zu betreiben, ein wenig anders: der Client kontaktiert den Spielserver und schickt gleichzeitig seinen Key an den zentralen Authentifizierungsserver des Herstellers, welcher wiederum bei Feststellung der Gültigkeit einen Hash davon an den Spielserver sendet. Somit ist die Authentifizierung vollzogen, der (ggf. privat betriebene) Spielserver erhält aber nicht den originalen Key, um potentiellen Missbrauch zu vermeiden.

Ein weiterer nützlicher Verwendungszweck ist die Möglichkeit, bestimmte Spieler zielgenau zu sperren, sollten sie gegen die Nutzungsbedingungen verstoßen. Dies betrifft zum einen die Klientel derjenigen Teilnehmer, welche aus rein destruktiver Motivation heraus darum bemüht sind, ihren Mitspielern den Spaß zu verderben, indem sie vorsätzlich und konsequent teamschädigende Aktionen vornehmen. Zum anderen fallen darunter die sogenannten Cheater: Spieler, die sich durch technische Manipulationen an der Client-Software oder den von ihr verwendeten Daten gezielt einen unfairen Vorteil verschaffen.

Die am häufigsten anzutreffenden Cheats sind Aimbots (automatisches Zielen) und Wallhacks (Manipulation der Graphikdarstellung, so dass durch Wände gesehen werden kann) bei Shootern sowie Maphacks (Veränderung der Karteneigenschaften zum eigenen Vorteil) bei RTS. Cheating gilt bei der überwiegenden Mehrheit der Spieler als asoziales Verhalten und das Interesse an technischen Lösungen zur Unterbindung von Betrügereien ist hoch. So sah sich beispielsweise die Firma Asus, als sie vor zwei Jahren den Versuch unternahm, ihre neuesten Graphikkarten und -treiber mit einem Feature namens "See-Through-Mode" zu bewerben, einem Proteststurm [register:ASUS] von Seiten der Onlinegamer gegenüber, der sich bis hin zu generellen Boykottaufrufen gegen alle Asus-Produkte ausweitete.

Mittlerweile hat sich aber auch bei der Industrie die Erkenntnis durchgesetzt, dass Anti-Cheat-Maßnahmen hochgradig erwünscht sind und dringend benötigt werden. Dem wird u. a. Rechnung getragen durch Produkte wie Punkbuster [EvBa] oder Cheating-Death, welche clientseitig alle für ein Spiel benötigten Dateien bei Verbindungsaufnahme mit dem Server auf ihre Integrität testen und automatisch in unregelmäßigen Abständen ein Update ihrer Scanliste vornehmen, ähnlich wie handelsübliche Virenscanner. Anti-Cheat-Programme dieser Art sind in den meisten Ligen Pflicht, erwischte Cheater erhalten Bans (Spielsperren), teilweise landen ihre Key-Hashes auch an der "Wall of Shame" [WoS]. Der Tatbestand des Cheatens ähnelt somit sehr stark dem des Dopings im Sport.

3.1.2 Latenzzeiten

Für die meisten Onlinegames sind die beim aktuellen Stand der Technik üblichen Pingzeiten von ca. 20 ms (Standleitung/SDSL) bis 120 ms (56K-Modem) im innereuropäischen Datenverkehr hinreichend, um annähernd Echtzeitbetrieb zu ermöglichen. Bei Rollenspielen und RTS kommt es innerhalb dieses Rahmens auf ein paar Millisekunden mehr oder weniger meist nicht an. Eine Ausnahme bilden allerdings, wie so oft, die First Person Shooter.

Während FPS sich früher bei Ping 20 auf LAN-Niveau spielen ließen, war schon Ping 50 im Vergleich ein deutlicher Wettbewerbsnachteil und ab Ping 100 setzte faktisch Unspielbarkeit ein. Die subjektiv als "Massenträgheit" empfundenen Verzögerungen beim Wechsel der Bewegungsrichtung unter schlechten Ping-Bedingungen führten in der Folge zur Prägung des treffenden Begriffs "Skating". In neueren Shootern wurden diese Unterschiede zusehends durch ausgeklügelte Mechanismen zur Player Prediction kompensiert, so dass auch mit Pingzeiten von über 100ms einigermaßen passabel gespielt werden konnte, was nicht zuletzt auch erstmals transatlantische Duelle unter annähernd fairen Bedingungen ermöglichte. Nach wie vor aber gilt eine niedrige Latenzzeit als deutlicher Wettbewerbsvorteil unter Shooter-Spielern, denn selbst der beste Prediction-Algorithmus kann nicht mit den Vorzügen eines "echten" 20-ms-Pings konkurrieren. Die Bandbreite der Datenübertragung dagegen stellt heutzutage im Gegensatz zur Latenzzeit keine entscheidende Größe mehr dar, denn die für flüssiges Spielen benötigten 5-10 K/s liefert bereits jeder ISDN-Anschluss.

Vor obigem Hintergrund ist im Übrigen auch das mehrjährige Tauziehen um die Fastpath-Freischaltung beim ADSL-Angebot der deutschen Telekom zu verstehen. Bei Fastpath handelt es sich um einen Kunstbegriff, der den Verzicht auf die Verwendung des Interleaving-Protokolls beim Betrieb von DSL-Leitungen bezeichnet. Die zeitraubende Interleaving-Fehlerkorrektur ist als weitgehend redundant anzusehen, da bereits das TCP/IP-Protokoll die entsprechende Funktionalität bietet und eine fehlerhafte Datenübertragung zuverlässig verhindert. Entsprechend groß war das Unverständnis vieler Onlinegamer unter den T-Online-Kunden angesichts der mit dem Hinweis auf zu erwartende technische Probleme begründeten hartnäckigen Weigerung, Fastpath anzubieten, während sämtliche Mitbewerber unter den Providern dies bereits durchgehend taten. Anfang des Jahres ist nun aber auch diese Bastion gefallen und der "rosa Riese" ermöglicht seinen Kunden gegen einen kleinen Aufpreis die Abschaltung des Interleaving [TCom].

3.1.3 Player Prediction

Der Netcode und insbesondere die Frage der Prediction sind von herausragender Bedeutung für das Spielgefühl bei Onlineshootern. Zunächst einmal nimmt der Server dabei fortlaufend die ankommenden Datenströme der Clients entgegen und aktualisiert den Gesamtzustand des Spielfeldes inklusive aller Entities entsprechend. Je nach Spiel und Server-Setting erfolgt dann ca. 20-60 Mal pro Sekunde eine Rückübermittlung des aktuellen Zustands an alle Clients; dieser Vorgang wird Snap oder Tic genannt, der Snap-Wert bestimmt also die Frequenz, mit der alle Clients auf denselben Spielstand, nämlich den des Servers, synchronisiert werden. Parallel laufen nun zwei weitere Vorgänge ab:
  • Server-Side Prediction
  • Die Bewegungen aller Teilnehmer, welche mit unterschiedlicher Verzögerung beim Server auflaufen, werden, wo nötig, durch Extrapolation auf einen gemeinsamen Nenner gebracht. Der Server versucht dabei abzuschätzen, wohin die Spieler mit höheren Latenzzeiten sich voraussichtlich bewegen werden, falls die notwendigen Daten noch nicht verfügbar sind.

  • Client-Side Prediction
  • Hier geschieht Ähnliches wie oben, nur auf Seiten des Clients. Aktionen des Spielers werden lokal verzögerungsfrei dargestellt, was ein optimales Ansprechen der Steuerung suggeriert; dies ist vorteilhaft, da bereits minimale Verzögerungen den Eindruck von "Schwammigkeit" erzeugen. Gleichzeitig werden die Bewegungen der Mitspieler, basierend auf den Daten des letzten Snaps, extrapoliert, so dass ein flüssiger Spielablauf auf dem Bildschirm erscheint.
Zur Nagelprobe kommt es nun beim nächsten Snap: hier zeigt sich die Präzision der Prediction, da die leicht abweichenden Werte mit der tatsächlichen Spielsituation möglichst "weich" synchronisiert werden müssen. Sind die Abweichungen zu groß, kommt es zu Sprüngen in der Spieldarstellung, bis hin zu Situationen, wo der Spieler bestimmte Aktionen gar nicht durchgeführt hat, obwohl ihm dies clientseitig suggeriert wurde. Auch bei der nachträglichen Korrektur der serverseitigen Berechnungen durch verzögert auflaufende Daten können ungewollte Effekte entstehen: schaut beispielsweise ein Spieler um die Ecke und zieht sich dann sofort scheinbar unbeschadet zurück, während gleichzeitig ein Konkurrent mit hoher Latenzzeit in just diesem Moment auf ihn feuert, entsteht bei der Anrechnung des Treffers zum Zeitpunkt des verspäteten Eingangs dieser Information der Eindruck eines "um die Ecke"-Schießens [gams:Bernier].

Die Optimierung dieser Vorgänge stellt nach wie vor eine Herausforderung dar und selbst einige brandaktuelle Shooter zeigen hier noch große Schwächen.

3.2 3D-Graphik

Nachdem Rendering, insbesondere in Real-Time, lange Zeit eine Domäne spezieller Workstations war und das auf einem exorbitanten Preisniveau, leitete das Erscheinen der ersten 3D-Karten für den Heimbereich Mitte der 90er Jahre einen Paradigmenwechsel ein. Bis zu diesem Zeitpunkt waren Rendering und die dafür benötigte Hardware vor allem auf die Klientel der Filmindustrie zugeschnitten, niemand konnte sich einen Anwendungsbereich für den Massenmarkt vorstellen. Der Erfolg der ersten Online-Shooter aber und, eng daran gekoppelt, der Aufstieg der Voodoo 3dfx Karte [3dfx] gaben den Startschuss für das bis heute andauernde Rennen um die 3D-Hardware-Krone auf dem heimischen Desktop ab. Die jüngste Ankündigung des Spezialisten für Render-Workstations, SGI, künftig auf eigenes IC-Design zu verzichten und stattdessen die Chip-Serien des auf den Consumer-Markt ausgerichteten Herstellers ATI zu verbauen [heise:SGI], ist nur ein logisches Resultat der damals eingeleiteten, unvermindert fortschreitenden Konvergenzentwicklung und dürfte wohl mittelfristig zum weitgehenden Verschwinden des reinen Profisektors führen.

Hier sind also klare Synergieeffekte zu beobachten, die steigende Nachfrage nach immer leistungsfähigeren Graphik-Subsystemen und auch Prozessoren im Heimbereich ist unmittelbar zurückzuführen auf das Unterhaltungsbedürfnis der Anwender. Rendering sowie Audio- und Videoencoding am Massenmarkt sind somit ein wichtiger Faktor bei der Performanceentwicklung der Hardware ganz allgemein und dieser Einfluss macht sich bis hin zu den bis dato hochspezialisierten Plattformen massiv bemerkbar.

Auch wenn den FPS eine klare Vorreiterrolle zukommt, ist seit geraumer Zeit reine Bitmap-Graphik selbst bei RTS und RPG nicht mehr zeitgemäß. Die neuesten Engines sind allesamt 3D-basiert und ermöglichen neben der herkömmlichen Vogel- oder Isometrie-Perspektive die freie Wahl des Blickwinkels auf das Spielfeld, inklusive beliebiger Zoomstufen. Dies ermöglicht desweiteren die Generierung von Cut-Scenes, also kurzen, storytragenden Filmsequenzen, innerhalb der eigentlichen Engine, ohne in größerem Umfang auf vorgerenderte Filme zurückgreifen zu müssen, wie es noch bis vor kurzem üblich war.

3.2.1 Engines, Hardware und Schnittstellen

Schon seit längerem findet der Wettbewerb um die Vorherrschaft auf diesem Technologiegebiet parallel an drei Fronten statt, die wiederum allesamt unmittelbar von gegenseitigen Synergieeffekten profitieren:
  • Engines
  • Die meisten Games Studios von Rang entwickeln heutzutage ihre eigene Engine, wogegen kleinere Hersteller meist den immensen technischen sowie finanziellen Aufwand scheuen und lieber eine Lizenz [Qlic] erwerben, um dann auf dieser Plattform ihr eigentliches Spiel zu implementieren. War ganz zu Beginn der Entwicklung noch Erfindungsgeist gefragt, um Software-Rendering überhaupt in angemessener Geschwindigkeit zu ermöglichen, stellte sich bald darauf, mit dem Erscheinen der ersten 3D-Karten, nur noch eine Frage: wie exakt kann man den turnusmäßigen Leistungszuwachs der Hardware vorhersagen? Denn entwickelt werden neue Engines mittlerweile überwiegend für Hardwareplattformen, die bestenfalls als Prototyp verfügbar, oft aber auch noch Vaporware sind. Als Resultat ist bei Erscheinen eines neuen Titels dieser nur auf dann brandaktuellen High-End-Boliden in voller Pracht zu genießen und das auch oft nur mit Glück. Die implementierten Features sind der Hardware also immer ein gutes Stück voraus, welche dann entsprechend den Gegebenheiten umgehend versucht, nachzuziehen.
    Bisher unabhängig von der Hardware ist die vergleichsweise neue Tendenz, einen enormen Aufwand bei der Emulation möglichst realistischer physikalischer Umweltbedingungen zu betreiben. Dazu werden entweder eigene mathematische Modelle entworfen oder sogar gleich komplette professionelle "Physics Engines" eingekauft. Nahm man es bisher meist nicht ganz so genau mit dem physikalisch akkuraten Verhalten von Objekten in der Spielwelt, so zeigte sich spätestens beim Spiel Command & Conquer: Generals [CCphys] das beeindruckende Potential dieser Technologie (eine unreflektierte Übernahme dieses Features in alle neuen Spiele wäre allerdings nicht ganz unproblematisch; inbesondere die Liebhaber unrealistischer Shooter dürften davon nicht sonderlich begeistert sein).
    Die ständig steigende Auflösung und Polygonzahl sowie alle Innovationen der letzten Jahre aber, wie z. B. die Einführung neuer Beleuchtungmodelle, Curves (Spline-basierte architektonische Elemente), volumetrischer Nebel oder Terrain Mapping sind letztlich Zwischenschritte auf dem Weg zur ultimativen Engine: photorealistische Darstellung in Echtzeit soll sie beherrschen - und damit nicht nur einen Schlusspunkt unter die Graphikschlacht im Spielesektor setzen, sondern praktischerweise auch gleich noch das optimale Werkzeug für die Animationsfilm-Branche liefern. Es ist allerdings noch ein gutes Stück des Weges zu gehen bis dahin; das nächste Scharmützel im Kampf um die 3D-Krone dürften sich erst einmal Doom 3 und Half-Life 2 liefern.

  • Hardware
  • Die Aufgabe von 3D-Karten besteht in der hardwareseitigen Implementierung möglichst vieler bei der Graphikdarstellung anfallender Berechnungen und Datentransfer-Vorgänge zur Entlastung des Hauptprozessors. Anfangs beschränkte sich dies noch auf die Beschleunigung von Textur- und Pixelfunktionen (Virge S3), aber schon 1997 sorgte das "Triangle Setup" der Voodoo 3dfx für eine erhebliche Beschleunigung der Polygonberechnung. Später folgten neben dem wichtigen Schritt der Geometrie-Beschleunigung (T & L, "Transformation & Lighting"), den die GeForce einläutete, auch Features wie Texturkompression, Antialiasing und Anisotropic Filtering [3Dgk].
    Derzeit konkurrieren vor allem die ATI Radeon Reihe und die Geforce-Karten miteinander, AGP 8x Zugriff, Taktfrequenzen von 350 MHz (Core) bzw. 700 MHz (Speicher) und Füllraten um 1200 Mpix/s sind der aktuelle Stand, während gleichzeitig immer neue Funktionen in Hardware realisiert werden [hothw]. Etablierte Benchmark-Tests sind u. a. der 3D Mark, der Aquamark 3D und die Quake III Arena "Timedemo"-Funktion. Da trotz Entlastung von CPU und Hauptspeicher diese immer höheren Leistungsanforderungen genügen müssen, um die Graphikadapter in adäquater Geschwindigkeit mit Daten versorgen und voll auslasten zu können, ergibt sich als Nebeneffekt quasi automatisch auch ein stabiles Wachstum des Marktes für immer schnellere Prozessoren und Speichersubsysteme.

  • Schnittstellen
  • Ein in diesem Zusammenhang oft unterschätzter Faktor ist die Wahl der API. War zeitweise noch ein Gleichgewicht zwischen OpenGL-Spielen und solchen auf Basis von DirectX gegeben, so dominieren letztere mittlerweile eindeutig das Geschehen im Spielebereich. Während OpenGL eine deutlich größere Bandbreite von Funktionen abdeckt und als Standard im professionellen Sektor gilt, ist es Microsoft gelungen, DirectX als Spielestandard zu etablieren, wobei die Marktdominanz von Windows auf Heim-PCs sicherlich mit ausschlaggebend war. Für die meisten Kartenhersteller hat DirektX-Kompatibilität deutlich höhere Priorität als die Entwicklung von OpenGL-Treibern, was wiederum von den Spieleentwicklern mit zunehmender Fokussierung auf DirectX als API honoriert wird. Auch wenn einige von ihnen zusätzlich parallel OpenGL unterstützen und somit auch Linux- oder Mac-Usern ihre Spiele zugänglich machen [tux], liegt der Schwerpunkt eindeutig auf DirectX, dessen Funktionen überdies von den Kartenherstellern zunehmend in Hardware realisiert werden.
Für den Käufer eines aktuellen Top-Titels ergibt sich durch die rasante Weiterentwicklung im 3D-Bereich oft das Dilemma, dass die Ausstattung seines Rechners weit unterhalb der empfohlenen Hardwarevoraussetzungen liegt. Es ist zwar nicht ganz unüblich unter Gamern, ihren PC zu diesem Anlass aufzurüsten oder auch gleich einen neuen Rechner zu kaufen; da dies aber natürlich nicht von jedem verlangt werden kann, besitzen alle Spiele eine breite Palette von Einstellungsmöglichkeiten. Um die Performance-Einsparungen möglichst flexibel skalieren zu können, hat der Spieler die Option, per Menü oder Config-File die Spieldarstellung der Leistungsfähigkeit seiner Hardware anzupassen. Bildschirmauflösung, Dynamic Lighting, Texturqualität und Spezialeffekte wie die Verwendung einer Particle Engine lassen sich frei einstellen, so dass auch Besitzer älterer Rechner am Spiel teilnehmen können, ohne dass ihre fps (frames per second) ins Bodenlose sacken.

3.2.2 Maps

Die Produktion des ersten echten 3D-Shooters Quake 1996 stellte id Software in vielerlei Hinsicht vor Probleme. Eines bestand darin, auf einer vergleichsweise unperformanten Plattform (damals dem Pentium 100) echtes Real-Time-Rendering der Spielumgebung zu ermöglichen. Der klassische Ansatz des Ray-Tracing war dafür denkbar ungeeignet, weil zu rechenintensiv. Der schließlich und auch heute noch verwendete Lösungsansatz war die Trennung der Struktur-, Licht- und Sichtbarkeitsinformationen der Maps sowie die Verwendung des LOD-Prinzips (Level of Detail), bei welchem die Texturauflösung der Umgebungsobjekte mit zunehmender Entfernung stufenweise verringert wird.

Zunächst wird die grundlegende Mapstruktur innerhalb eines herstellerspezifischen CAD-Programms konstruiert, wobei ein Großteil oft benutzter Baugruppen, wie Treppen, Türen usw. bereits in Form von sogenannten Pre-Fabs zur Verfügung gestellt wird. Eine Sonderstellung nimmt dabei weites, offenes Terrain ein, hier wird heutzutage meist auf sogenanntes Heightmapping zurückgegriffen [gamedev], welches sich von der in Flugsimulatoren beliebten Technik der Voxels ableitet. Dabei repräsentiert der Farbwert jedes Pixels einer Bitmap die Höhe eines bestimmten Punktes im Gelände; dies ist für natürliche Geländestrukturen effektiver, ermöglicht allerdings nicht die Darstellung komplexerer Konstrukte, wie sie für Gebäude benötigt wird.

Im nächsten Schritt erfolgt die Plazierung der Texturen auf die noch "nackte" Map. Bestanden diese früher nur aus simplen 2D-Graphiken, die bspw. einer Ziegelsteinwand die entsprechende Optik aus Steinen und Fugen verschafften, sind sie heute oft mit Shadern verknüpft. Diese "Mini-Scripte" beeinhalten Informationen über die Animation und Darstellung mehrschichtiger Texturen sowie gelegentlich sogar über Interaktionsmuster mit dem Spieler (so kann der Shader einer Eis-Textur Informationen über einen Spiegeleffekt enthalten, oder bewirken, dass der Spieler anfängt zu rutschen, wenn er sie betritt).

Der dritte Schritt ist das Einfügen von dynamischen Entities wie Triggern, mittels derer die Funktionalität des Spielverlaufs auf der Karte spezifiziert wird. Tore, die sich nur für bestimmte Teams öffnen, Fahrstühle, die auf Knopfdruck aktiviert werden und auch die komplette Logik des Spiel- und Punktesystems, wie die Eroberung von Fahnen oder die Sprengung eines Gebäudes, können hier definiert werden, was dem Mapper einen großen Gestaltungsspielraum verschafft. Zur Fertigstellung der Map erfolgt nun das "Compiling", wobei in getrennten Durchläufen die Lichtverhältnisse (Lighting), die Vis(ibility) in Form der PVS-Tabelle (Potentially Visible Set) die festlegt, welche Bereiche der Karte von welchen Punkten aus sichtbar bzw. darstellbar sind und der BSP Tree vorberechnet werden. Die Balancierung dieses Baums stellt eine der wichtigsten Aufgaben bei der Optimierung der Darstellungsperformanz dar und muss durch einige Kunstgriffe, wie das Setzen von Hint Brushes, weitgehend manuell durchgeführt werden [mapdes].

3.2.3 Models

Alle Spieleinheiten, wie Personen, Monster und Fahrzeuge werden zunächst als Drahtgittermodell (Wireframe) entworfen. Die folgenden Arbeitsschritte sind das Unwrapping, Skinning (Texturierung) und die Erstellung der Animationsphasen. Die Animation der Charaktere erfolgt dabei ähnlich wie bei der Produktion moderner Renderfilme: fortgeschrittene Techniken wie Motion Capturing oder Skeletal Animation kommen mittlerweile auch bei der Herstellung von Spielen zum Einsatz, lediglich die Granularität von Model und Animation bleibt aus Geschwindigkeitsgründen derzeit noch hinter Kinoproduktionen zurück. Als Maß für die Performanz eines Models gilt neben der Anzahl von Animationsphasen pro Sekunde der sogenannte Polycount, die Menge der Polygone, aus den es zusammengesetzt ist. Diese wird außer der vorausgesetzten Hardware limitiert durch die Anzahl und Größe der maximal gleichzeitig im Spiel darzustellenden Models. RTS und RPG müssen meist eine größere Menge von dafür aber kleineren Spielfiguren darstellen als FPS, weswegen der zulässige Polycount bei letzteren deutlich höher liegt.

3.2.4 Trailer

Zwar werden, anders als früher, zunehmend die im Spiel enthaltenen Cut-Scenes direkt innerhalb der Spiel-Engine realisiert, ganz ausgedient hat das professionelle Rendering deshalb aber noch lange nicht. Insbesondere Intro- und Epilog-Sequenzen werden nach wie vor noch überwiegend vorgerendert. Besonders wichtig ist dies für die regelmäßig schon im Vorfeld eines Releases im Internet verfügbaren Werbetrailer [ROC]. Sie haben die Aufgabe, möglichst stark zu beeindrucken und beinhalten daher neben einigen In-Game-Impressionen vor allem professionell gerenderte Filme, deren Produktionsdauer nicht selten mehrere Monate für wenige Minuten Spielzeit beträgt. Dabei kommen überwiegend großkalibrige Programme wie beispielsweise Maya zum Einsatz; die Konvergenz mit der Animationsfilm-Industrie ist also auch hier überdeutlich.

3.3 Sound

Die technische Entwicklung im akustischen Bereich ist bisher weit weniger stürmisch verlaufen, als es bei der Graphik der Fall war. Dies führt gelegentlich dazu, dass der Sound bei der Betrachtung von Spielen zu unrecht ein wenig vernachlässigt wird. Im Wesentlichen sind zwei Zäsuren zu vermerken: die Einführung von stereofähigen Soundkarten für den PC zu Beginn der 90er Jahre mit der nachfolgenden Entwicklung von Surround-Sound-Systemen sowie die immensen Fortschritte im Bereich der Datenkomprimierung, namentlich MP3.

3.3.1 Atmosphäre

Die Einführung von Stereo- bzw. Surround-Sound erhöhte naturgemäß den Immersionsgrad von Spielen, da man im Vergleich zur Mono-Variante automatisch mitten ins Spielgeschehen rückte. Bedeutsamer erscheint allerdings der Wechsel von FM-Synthese und MIDI als ehemaligem Standard auf vollen WAV- oder MP3-Sound, wie es heutzutage der Fall ist. Sprachausgabe im eigentlichen Spiel und in Filmsequenzen sowie die Komposition komplett orchestrierter, professioneller Soundtracks sind unverzichtbar geworden für ein Medium, welches ohnehin zusehends in Teilbereiche der Film- und Musikindustrie hineinwächst. Wie bei Kinofilmen auch werden namhafte Künstler verpflichtet, um einen OST für bestimmte Spiele zu produzieren [telepolis:grammy]. Die Zielsetzung ist dabei klar: neben dem Erreichen der angestrebten Atmosphäre bürgt schon der Name diverser Bands beim Konsumenten für Qualität und erhöht die Chance, mit dem Produkt Kultstatus zu erlangen.

3.3.2 Gameplay

In RTS und RPG hat der Sound meist nicht allzu große Auswirkungen auf das konkrete Spielgeschehen, auch wenn diverse Effekte gelegentlich nützlich sind, um z. B. die Präsenz eines Gegners in der näheren Umgebung rechtzeitig zu bemerken - ganz anders aber bei den FPS. Stereosound ist hier von erheblicher Bedeutung, Kopfhörer oder ein gutes Surround-System sind Pflicht. Wie in der Realität auch, erfolgt in der Egoperspektive ein Großteil der Wahrnehmung der jeweiligen Umgebung, wenn auch teilweise unbewusst, über die Ohren. Das Geräusch eines Aufzugs von hinten links, Schritte hinter der nächsten Ecke, all das ist essentiell für gute Spieler. Bei hochklassigen 1on1-Duellen in Shootern ist es keineswegs ungewöhnlich, dass sich die Gegner kaum zu Gesicht bekommen und stattdessen durch die Geräuschkulisse abzuschätzen versuchen, wo sich der jeweils andere vermutlich aufhält, um ihn dann irgendwann überraschend zu attackieren. Kaum eine akustische Neuerung war daher spieltechnisch für FPS-Spieler so substantiell wie das räumliche Hören. Bombastische Soundtracks oder die Möglichkeit zum Abspielen von MP3s während des Spiels stellen hier eher nette Gimmicks dar.

3.3.3 Teamkommunikation

Ebenfalls zum Standardinventar der FPS- und mittlerweile auch der RTS-Spieler gehören die sogenannten Voice-Programme, wie Battlecom und Teamspeak [TSorg]. Sie ermöglichen die Sprachkommunikation über das Internet mit einer größeren Zahl von Teilnehmern gleichzeitig, vergleichbar einer telefonischen Konferenzschaltung (bevor Voice-Programme verfügbar waren, gab es tatsächlich vereinzelt Spieler, die während wichtiger Spiele das Telefon bemühten; eine kostspielige Angelegenheit, die aber schon frühzeitig den offensichtlichen Bedarf aufzeigte). Da die verwendeten Codecs auf möglichst geringe Bandbreite optimiert sind, ist die Sprachqualität eher mäßig, aber für den vorgesehenen Anwendungszweck durchaus hinreichend. Etwas störend wirken sich allerdings die vergleichsweise hohen Latenzzeiten aus, so dass sich nur bedingt eine flüssige Unterhaltung führen lässt, was im Gegensatz zur professionellen Internettelefonie aber auch nicht Sinn der Sache ist. Weitere Eigenheiten, wie die Nutzungsmöglichkeit für Clients auch hinter einem NAT-Router, runden das Erscheinungsbild dieser speziell für die Bedürfnisse von Gamern entworfenen Anwendungen ab.

Sprachkommunikation zur Verbesserung des Teamplays tauchte das erste Mal 1998 als Feature des Quake-Proxies Qizmo auf, der keine kommerzielle Entwicklung, sondern ein privates Projekt finnischer Studenten der Technischen Universität Tampere [tut] darstellte, trotzdem aber bereits eine beachtliche Sprachqualität aufwies, welche sich durchaus mit aktuellen Produkten messen konnte.

3.4 Künstliche Intelligenz

Bei kaum einer der für Spieleproduktionen typischen Problemstellungen herrscht ein so dringender technischer Nachholbedarf, wie bei der Programmierung des Verhaltens computergesteuerter Charaktere.

Jeder RTS-Spieler hat es schon einmal erlebt: man schickt drei Gruppen waffenstarrender Paladine hoch zu Ross quer durch die Karte ins Kampfgetümmel, mit dem Ergebnis, dass nur eine davon auch wirklich dort ankommt und umgehend aufgerieben wird. Während die zweite Gruppe sich derweil nach einem spontanen Abstecher in die Wallachei genüsslich an einem unvorsichtigerweise in Sichtweite herumlungernden Creep delektiert, zappelt die dritte fernab des Geschehens hilflos im Unterholz eines aus drei Bäumchen bestehenden Birkenhains, welcher sich unverhofft als unüberwindliches Hindernis herausstellte; ganz zu schweigen vom versehentlich mit angewählten Waldarbeiter, der bei dem eigenwilligen Versuch, mitten im gegnerischen Hauptlager unter den Augen einer Horde mordlustiger Oger den Turm eines Todesmagiers einzureißen, auf tragische Weise ums Leben kommt. Vare, redde mihi legiones meas!

Kurz und gut, nicht umsonst wird in diesem Zusammenhang desöfteren scherzhaft von "künstlicher Dummheit" gesprochen. Wieso aber ist es so furchtbar schwierig, den kleinen Gesellen auch nur rudimentäre Intelligenz einzuhauchen?

3.4.1 Mensch gegen Maschine

Grundsätzlich stehen die Programmierer von Spiele-KI zunächst einmal vor demselben Problem wie die KI-Forschung generell: es ist bisher nicht gelungen, Computern echte Intelligenz auf einer Basis breiten Kontextwissens zu vermitteln. Der übliche Ansatz ist daher derselbe wie bei traditionellen Spielen (das Paradebeispiel ist Schach): eine klar definierte Umgebung mit ebenso klar definierten Regeln in überschaubarem Rahmen bildet den "Spielplatz", so dass sich die Menge an zu verarbeitenden Informationen, wie auch die Anzahl der daraufhin möglichen Aktionen, auf ein Maß reduzieren, das handhabbar ist.

Leider ist selbst diese eingeschränkte Umgebung aber immer noch so komplex, dass oft ein Kunstgriff zur Anwendung kommt, der im Schach noch akzeptabel sein mag, sich bei den meisten Computerspielen aber fatal auswirkt: die Nutzung spezifisch maschineller Stärken. Schachcomputer sind dafür bekannt, dass sich ihre Stärken und Schwächen in etwa komplementär zu denen des Menschen verhalten; sie sind traditionell stark in der Eröffnung und im Endspiel, während der Mensch Vorteile im Mittelspiel besitzt, da dort Intuition und Mustererkennung eine größere Rolle spielen als rohe Rechengewalt. Diese Tatsache ist übrigens auch einer der Gründe, warum Computer im Go bisher mit menschlichen Gegnern noch nicht ansatzweise konkurrieren können, denn Mustererkennung ist dort über die gesamte Spieldauer ein wesentlicher Faktor [telepolis:go]. Wieso aber nun darf im Computerspiel das nicht sein, was im Schach die Normalität darstellt?

Ich möchte die Problematik kurz anhand eines nicht mehr ganz aktuellen Beispiels erläutern: für den Shooter Quake gab es Ende der 90er Jahre eine Fülle von sogenannten Bots, Programme, welche künstliche Spieler simulierten, gegen die man auf seinem eigenen Rechner als Server antreten konnte (diese sind zwar in modernen Shootern heutzutage bereits standardmäßig enthalten, nach wie vor aber noch weit davon entfernt, vom Spielverhalten her mit menschlichen Gegnern verwechselt werden zu können). Zwei exponierte Vertreter dieser Spezies waren dabei der Reaper- und der Omikron-Bot. Während der Reaper-Bot auf maximaler Spielstärke durch (im wahrsten Sinne des Wortes) unmenschliche Reflexe, Augen im Hinterkopf sowie perfektes Zielverhalten und Pattern Moving glänzte, zeigte der Omikron-Bot gänzlich andere Qualitäten: er lernte aus dem Spielverhalten des Menschen, spielte ansatzweise taktisch variabel, zeigte gutes Aiming und sogar Special Moves, griff aber dabei niemals auf "übernatürliche" Fähigkeiten zurück. Ergänzt um typisch menschliche Fehler, wie gelegentlich einen Schuss zu verreißen und sich dabei selbst zu verletzen, oder das nette Feature, ab und an ein paar "wütende" Kommentare über den Gegner abzugeben, konnte man mitunter durchaus kurzzeitig dem Irrtum erliegen, gegen einen Menschen zu spielen. Die Nutzung unfairer Ressourcen allerdings, wie beim Reaper-Bot, um den Mangel an echter Spielintelligenz möglichst effizient auszugleichen, erzeugte beim Spieler deutlich weniger Spaß, selbst wenn die nominelle Spielstärke der Maschine eine Herausforderung darstellte.

Während aber bei einem hochgradig abstrakten Denksport wie Schach diese Herausforderung den streckenweise drögen Spielstil der Maschinen wettmacht, bewirkt ein demonstrativ "maschineller" Stil bei Spielen, die einen gewissen Grad von Körperlichkeit, wenn auch nur virtueller Art, beinhalten, in erster Linie Frust. Oder, um es anhand eines ambitionierten aktuellen Projekts [robocup] zu verdeutlichen: das hehre Ziel, mit einer Mannschaft autarker, humanoider Roboter im Jahre 2050 den amtierenden menschlichen Fußball-Weltmeister zu schlagen, wird nur dann begeistern können, wenn dies auf der Grundlage von taktischer Gleichwertigkeit oder Überlegenheit der KI erfolgt. Niemand wird ein Spiel sehen wollen, in dem "tumbe" Roboter mit einem Vielfachen der Laufgeschwindigkeit und Schusskraft menschlicher Spieler durch rein physische Überlegenheit den Sieg davontragen.

Natürlich ist die Zeit nicht stehengeblieben und es sind durchaus im Laufe der Jahre einige vielversprechende Titel erschienen, deren KI den Spieler überraschen konnte, auch in Bezug auf das koordinierte taktische Zusammenspiel ganzer Gruppen von Computergegnern (Skirmish AI). Trotzdem birgt diese komplexe Thematik nach wie vor diverse Untiefen und einiges an Entwicklungsspielraum, so dass selbst sehr eng umrissenen Teilbereichen, wie beispielsweise dem Pathfinding, viel Aufmerksamkeit gewidmet werden muss [Greul]. Die Zeiten, wo es mit einer rudimentären Implementierung des Dijkstra-Algorithmus und ein wenig Gottvertrauen getan war, sind auch hier vorbei.

3.4.2 Ein Modellentwurf

Angesichts der Bedeutung Künstlicher Intelligenz für die Spielewelt (und umgekehrt) möchte ich an dieser Stelle die Gelegenheit wahrnehmen und den Entwurf eines einfachen Schichtenmodells skizzieren. Es soll einerseits die logische Struktur einer für Computerspiele idealen KI verdeutlichen, kann aber alternativ auch zur Klassifizierung und Bewertung von KI-Systemen in vorhandenen Spielen ausgebaut werden.



Abbildung 7: Modellentwurf einer idealen Spiele-KI

  • Perzeption
  • Die Wahrnehmung des Umfeldes durch die Spielfigur. Diese stellt kein technisches Problem dar, denn der Rechner ist, wenn erwünscht, jederzeit über die Position und die Bewegungsrichtung sämtlicher im Spiel befindlicher Objekte sowie über den pixelgenauen Aufbau der kompletten Karte informiert. Nicht nur sind seine Informationen hochpräzise (was z. B. die Abschätzung von Entfernungen unnötig macht), sondern er kann auch deutlich mehr davon gleichzeitig verarbeiten als der Mensch.

  • Strategie
  • Die menschliche Domäne. Das Wissen über den optimalen Ressourceneinsatz, die Vorbereitung von Feldzügen, geschickte Mannschaftsaufstellung und Teamkoordination, sprich, die langfristige Planung des Spielablaufs. Dieser Punkt ist bislang die größte Schwäche des Rechners und damit gleichzeitig die größte Herausforderung für die KI in Spielen.

  • Taktik
  • Ein weiterer menschlicher Vorteil. Das spontane Verhalten in kleineren, begrenzten Scharmützeln, typische Techniken der Bewegung, des Angriffs und Rückzugs, flexibel ausgeführt gemäß bestimmten Geländetypen und Gegnern.

  • Physik
  • Das Wissen um die physikalischen Gesetze der Spielwelt. Ein klarer Vorteil des Rechners, denn er kennt sie alle; im selben Moment, wo jemand eine Granate wirft, kann er bereits im Voraus die exakte Einschlagposition errechnen. Er kennt die genaue Anzahl von Schadenspunkten beim Aufschlag, schon bevor er einen Abhang hinunterspringt, kurzum, bei entsprechender Programmierung ist ein menschlicher Gegner hier stark unterlegen.

  • Aktion
  • Die Ausführung einer Bewegung, eine Angriffs oder einer beliebigen anderen spieltechnischen Aktion. Es gilt die gleiche krasse Unterlegenheit des Menschen wie in physikalischen Belangen, denn alle mögliche Fehlerquellen, seien sie mechanischer (wie durch eine verschmutzte Maus) oder feinmotorischer Art, fallen beim Rechner weg. Wenn erwünscht, führt er sämtliche Aktionen in Perfektion und deutlich höherer Geschwindigkeit aus, als es ein Mensch jemals könnte.
Die Pfeile im Diagramm verdeutlichen die Reihenfolge des zeitlichen Ablaufs: nach der Wahrnehmung der Situation erfolgt eine Abwägung möglicher Vorgehensweisen auf strategischer, taktischer und physikalischer Ebene und schließlich die Durchführung der gewählten Aktion. Ordnet man nun jeder der fünf Schichten einen eigenen, jeweils frei einstellbaren Skill-Wert zu (z. B. 0=kein, 1=niedrig, 2=mittel, 3=hoch), ergibt sich eine breite Palette von generierbaren Charakteren. Ein Computergegner mit niedrigem strategischen und taktischem Skill, aber sehr hohen Perzeptions-, Physik- und Aktionswerten beispielsweise ließe einem menschlichen Spieler kaum eine Chance im offenen Kampf, würde aber in komplexen Situationen und bei der Erreichung langfristiger Ziele völlig versagen. Eine Spielfigur mit hohem strategischen und taktischem Skill, aber niedrigen Werten in den anderen Bereichen dagegen würde ihre Aktionen genau planen, dafür aber an der praktischen Durchführung scheitern. Ein extrem niedriger Perzeptions-Skill, aber hohe Werte in allen anderen Bereichen schließlich entspräche einem guten menschlichen Spieler, der leider kurzsichtig ist - diese Reihe lässt sich nahezu beliebig fortsetzen.

Wie kann dieses idealisierte Modell nun als Basis für eine Evaluation real existierender KI-Systeme in Spielen genutzt werden?

Die rot gefärbten Schichten Perzeption, Physik und Aktion besitzen eine Gemeinsamkeit: alle drei Fähigkeiten können beim heutigen Stand der Technik so perfekt implementiert werden, dass Computergegner einem herausragenden menschlichen Spieler darin nicht nur ebenbürtig, sondern deutlich überlegen sind. Die grün gefärbten Schichten Strategie und Taktik dagegen sind menschliche Domänen; um hier irgendwann mit dem Menschen gleichzuziehen, ist noch ein gutes Stück Entwicklungsarbeit in der KI zu leisten. Wie nun oben bereits erwähnt, ist es überaus praktisch, diese Schwächen im grünen Bereich dadurch zu kompensieren, dass man den roten entsprechend "überreißt", wodurch die nominelle Spielstärke auf den gewünschten Level gehievt wird, keineswegs aber auch die "qualitative Güte" der KI, im Sinne von subjektiv empfundenem Spielspaß, ansteigt. Konsequenterweise kann man daher bei den meisten aktuellen Spielen zwar den Schwierigkeitsgrad/Skill der Computergegner einstellen, allerdings nur auf einer einzigen Skala; was genau diese Einstellung bewirkt, bleibt dabei im Dunkeln.

Um ein Maß für die Güte der KI zu etablieren, müsste man nun folgendermaßen vorgehen: für jede Einstellung auf der "Master-Skala" wird, nach dem Testen des resultierenden Spielverhaltens, ein entsprechender Wert für jede der fünf Schichten vergeben. Daraus lässt sich am Ende gut ablesen, wie sich die Skillsteigerung auf die einzelnen Schichten verteilt, bzw. eine entsprechend gewichtete Ergebnisfunktion bilden. Eine Vernachlässigung der grünen Bereiche und/oder die Steigerung der roten über das Menschenmögliche hinaus führen dabei zur Abwertung.

Eine spätere Erweiterung des Modells um eigenständiges Lernverhalten, welches sich rückgekoppelt auf alle fünf Schichten auswirkt, wäre im Sinne der Güte ein weiterer Fortschritt - die Evaluierung allerdings würde dies deutlich erschweren.

3.5 Ergonomie

Die Bedeutung von Usability und ergonomischen Aspekten nimmt auch bei der Entwicklung von Spielen in letzter Zeit zu. So haben sich bestimmte Elemente des Screendesigns über die Jahre als Standards etabliert: frei konfigurierbare Container und Paperdoll Inventories bei RPG sowie die omnipräsente In-Game-Konsole bei Shootern, welche die manuelle Veränderung diverser Einstellungen per Command Line oder die Ausführung von Custom Scripts ermöglicht, sind feste Bestandteile moderner Vertreter der entsprechenden Genres geworden. Von diesem Minimalkonsens abgesehen herrscht aber nach wie vor eher ein gewisser Wildwuchs bei der Oberflächengestaltung. Was die Hardware-Ergonomie betrifft, sieht es ein wenig anders aus: bei Ein- und Ausgabegeräten herrscht eine Monokultur - nämlich die der für den regulären Bürobetrieb ausgelegten Geräte. Die Frage ist nur, ob der Grund dafür in einem bereits erreichten Optimum oder nicht doch eher in der Tatsache zu suchen ist, dass von Seiten der Industrie dieser Thematik bislang nicht allzu viel Bedeutung beigemessen wird.

3.5.1 Visuelle Wahrnehmung

Lange Zeit war der klassische Röhrenmonitor die beliebteste und universellste Display-Form, bis er durch das Aufkommen von TFT-Bildschirmen langsam in Bedrängnis geriet. Für Spieler waren diese allerdings anfangs nur bedingt die erste Wahl, da bei der ersten Generation der Geräte maximaler Betrachtungswinkel und Schaltgeschwindigkeit in antagonistischem Verhältnis zueinander standen, die akkurate Darstellung von Bewegtbildern aber gerade für diese Klientel ein essentielles Leistungsmerkmal ist. Diese Kinderkrankheiten sind mittlerweile jedoch weitgehend überwunden, TFTs setzen sich durch und die sich am Horizont abzeichnende Revolution durch OLED-Displays dürfte mittelfristig das Ihrige dazu beitragen, die CRTs in den wohlverdienten Ruhestand zu schicken [IAPP].

In diesem Zusammenhang ist allerdings festzustellen, dass sämtliche Versuche, den Spielern alternative Darstellungsformen schmackhaft zu machen, bisher kläglich gescheitert sind. Experimente mit 3D-Brillen oder Shuttern beispielsweise, obgleich durchaus mit Interesse zur Kenntnis genommen, führten bislang weder zur Marktreife, noch zur Erhöhung der Nachfrage. Hier ist noch einiger Spielraum vorhanden, denn gerade bzgl. der erwähnten Geräte (Stichwort: "VR-Displays") sollte theoretisch unter Gamern ein relativ hoher potentieller Bedarf bestehen.

Aber auch bei der traditionellen Darstellung kann durchaus noch nachgebessert werden. So stößt z. B. der "fps-Wahn" vieler Shooter-Spieler oft auf Unverständnis; wozu um alles in der Welt benötigt man schließlich mehr als die im Filmbereich üblichen 24 Vollbilder pro Sekunde? Effekte wie die fehlende Bewegungsunschärfe (Motion Blur) bei Spielen [30vs60] oder die Kopplung der Datenübertragungsrate an die fps-Zahl in einigen Engines aber machen hier eine deutlich differenziertere Betrachtungsweise notwendig. Konstante 50-60 frames per second (unabhängig von der jeweiligen Refresh-Rate des Bildschirms), in bestimmten Fällen auch über 100, sind keineswegs spinnerte Forderungen geltungsbedürftiger "Poweruser", sondern haben einen klaren spieltechnischen Hintergrund. Insbesondere im kompetitiven Bereich treibt das Streben nach immer mehr visuellen Features (Eye Candy) durch die Hersteller auf der einen und das Bedürfnis "ernsthafter" Spieler nach optimalen fps und mehr Spielübersicht auf der anderen Seite teilweise seltsame Blüten; das Herunterregeln der graphischen Qualität auf eine absolut minimalistische Darstellung selbst auf High-End-Boliden ist hier nicht selten die Konsequenz. Dies betrifft nicht zuletzt auch Spezialeffekte wie spritzendes Blut, die oft komplett abgeschaltet werden, um das Sichtfeld nicht unnötig zu beeinträchtigen.



Abbildung 8: Egoshooter-Spielszene, in Normaldarstellung (links) und mit "Pro Settings" (rechts)


3.5.2 "Hier kommt die Maus!"

Neben den teils aufgeregten Protesten, bei Frage 30. nicht mindestens fünf verschiedene Spielkonsolen angeben zu können, war Frage 37. "Wenn du First Person Shooter spielst, benutzt du 'mouse invert'?" die wohl mit umstrittenste überhaupt. Die Reaktionen reichten hierbei von "Was zur Hölle soll das?" bis "Das wollte ich schon immer mal wissen!". Abgesehen von ihrer Kontrollfunktion zur Ermittlung der Anzahl der Nicht-FPS-Spieler wurde sie isoliert gestellt und diente genau dem letztgenannten Zweck: festzustellen, wie sich das prozentuale Verhältnis der "invertierten" zu den "regulären" Spielern gestaltet und ob es Hinweise auf starke Abweichungen unter bestimmten Spielergruppen gibt.

Die schon seit den Anfängen des Genres in jedem Shooter vorhandene Option "Mouse Invert" bewirkt eine Invertierung der vertikalen Bewegungsrichtung, wie es auch bei Flugsimulatoren Standard ist, so dass eine Bewegung der Maus nach vorn dazu führt, dass der Spieler sich dem Boden entgegen neigt. Kognitionstechnisch wird dabei die horizontale Ebene der konkreten Mausbewegung direkt umgesetzt; man bewegt praktisch den Kopf bzw. Oberkörper der Spielfigur bei gleichzeitiger Fixierung des Unterkörpers und kontrolliert somit den Neigungswinkel. Im Gegensatz dazu erfolgt bei "regulärer" Mauseinstellung eine Projektion der konkreten Mausbewegungsebene in die Vertikale: der Mittelpunkt des Blickfelds, markiert durch das Fadenkreuz, bewegt sich dabei entsprechend des auf jedem normalen Desktop verwendeten Mauszeigers.

Seit Jahren geisterte nun unter Spielern die Frage durch den Raum, warum einige "Mouse Invert" bevorzugen, andere wiederum nicht und woran dies wohl liegen könnte, zumal dieses Phänomen bis in die Ränge absoluter Spitzenspieler zu beobachten und keinerlei Muster erkennbar war. Unter anderem stellte sich auch die Frage, ob die Verteilung möglicherweise auf eine entsprechende Prädisposition zurückzuführen ist, ähnlich der Verteilung von Links- und Rechtshändern in der Bevölkerung, oder doch eher damit zusammenhängt, mit welchem Setting jemand zufälligerweise seine Spielerkarriere begonnen hat.

In meinem persönlichen Umfeld wurden schließlich auf den Ausgang der Frage sogar Wetten abgeschlossen, wobei die meisten Tips sich zwischen 30:70 und 40:60 zuungunsten von "Mouse Invert" bewegten. Das Ergebnis allerdings ist relativ weit von diesen Zahlen entfernt: gerade einmal 20,3% der Befragten, die auch Egoshooter spielen, tun dies invertiert. Um dieses etwas unerwartete Resultat zu beleuchten, ist es notwendig, die sogenannten Oldskooler zu betrachten. Und in der Tat beträgt der Anteil der "Mouse Invert"-Spieler unter Clan-Mitgliedern, welche schon länger als drei Jahre aktiv sind, 23,5% und bei den länger als vier Jahren aktiven ganze 28,4%. Dies erklärt zum einen die Fehleinschätzung durch "Veteranen" im Vorfeld und ist zum anderen ein Indiz dafür, dass Lernvorgänge dabei offenbar eine wichtige Rolle spielen, auch wenn ein Prädispositionsfaktor dadurch natürlich nicht ausgeschlossen werden kann.

Nach dieser etwas ausführlicheren Erläuterung stellt sich nun natürlich immer noch die Frage: wozu eigentlich das Ganze? Die Maus kann man im Gaming-Bereich als so etwas wie die "heilige Kuh" ansehen. Was dem Fußballer die Stollen, dem Tennisspieler das Racket und dem Rennradfahrer das Velo, ist dem Gamer die Maus. Die Bemühungen gerade der kompetitiven Spieler zur Optimierung von Auflösung, Abtastrate, Sensitivität und Gleitverhalten nehmen gelegentlich abenteuerliche Ausmaße an - ein Trend, den die Industrie bereits erkannt und angesichts seiner Profitabilität dankbar aufgegriffen hat. Speziell für Spieler entworfene Mäuse und Mauspads [mptest] sowie reichlich Zubehör [hetap] mit teilweise eher fragwürdigem Nutzen sind daher keine Seltenheit mehr.

Während man bei RTS und MMOSG noch davon ausgehen kann, dass die etablierte Kombination von Tastatur und Maus zur Steuerung des Spielgeschehens weitgehend Sinn ergibt, drängt sich bei Spielen in der Egoperspektive allerdings die Frage auf, ob diese ursprünglich für den Bürobetrieb entworfenen Eingabegeräte bereits das Optimum darstellen. Wie auch bei den Displays waren Versuche zur Etablierung alternativer Controller bislang von wenig Erfolg gekrönt: Joysticks sind vor allem für Simulationen geeignet, Gamepads dominieren im Bereich der Spielkonsolen, im Vergleich zu Maus und Tastatur allerdings sind sie, wie auch die vereinzelt zum Spielen verwendeten Trackballs, am PC deutlich in der Minderheit und konnten sich nicht durchsetzen. Auch gelegentliche Ausritte in exotische Gefilde durch Hersteller von 6-DOF-Controllern (6-degrees-of-freedom) führten bisher [cyberman] nicht zu einer erhöhten Marktrelevanz alternativer Eingabegeräte [spaceorb]. Nicht zuletzt dokumentiert der kürzlich erfolgte Ausstieg Microsofts [heise:MS] aus diesem Geschäftsbereich die anhaltende Erfolglosigkeit bei dem Versuch, die Maus als primäres Spielgerät zu verdrängen.

All das sagt allerdings immer noch nicht viel darüber aus, wie geeignet sie wirklich für diesen Anwendungszweck ist; kognitionspsychologische Untersuchungen dieser Thematik könnten hier wertvolle Ergebnisse liefern, welche auch von Relevanz für die angrenzenden Bereiche der VR-Forschung wären.


<<< Kapitel 2
Inhaltsverzeichnis
Kapitel 4 >>>