Palantir: Ein Lehrstück über Vendor Risk Management

Veröffentlicht am·Lesezeit: 17 Minuten
Julian Köhn

Warum wir bei Kopexa auf 'Made in Europe' bestehen, ist keine Marketing-Floskel, sondern eine Risiko-Abwägung. Der aktuelle Umgang Deutschlands mit Palantir zeigt exemplarisch, was passiert, wenn Vendor Risk Management durch politisches Wunschdenken ersetzt wird. Eine Analyse der 'verheerenden Risiken' – und warum die Schweiz zu einem anderen Schluss kommt als Deutschland.

Der Pakt der Unmündigkeit: Die Erosion digitaler Souveränität im deutsch-schweizerischen Dissonanzfeld der Palantir-Beschaffung#

1. Die Geografie des Risikos und der Zusammenbruch der Kritikfähigkeit#

Europa steht in der Mitte des dritten Jahrzehnts des 21. Jahrhunderts vor einer sicherheitspolitischen Zäsur, die weit über konventionelle militärische Bedrohungen hinausgeht. Es ist eine Krise der digitalen Infrastruktur, eine Krise der staatlichen Handlungsfähigkeit und, fundamentaler noch, eine Krise des rechtsstaatlichen Selbstverständnisses im Umgang mit der Ressource Information. In keinem anderen Fall manifestiert sich diese Krise so greifbar, so dramatisch und so widersprüchlich wie in der divergierenden Haltung zweier Nachbarstaaten zur Technologie des US-amerikanischen Unternehmens Palantir Technologies: der Schweiz und der Bundesrepublik Deutschland.

Während die Schweizerische Eidgenossenschaft, geleitet von einer nüchternen, beinahe chirurgisch präzisen Risikoanalyse des Bundesamtes für Polizei (fedpol) und des Armeestabes, die Reißleine zog und dem US-Konzern aufgrund „verheerender Risiken“ die Tür wies , vollzieht sich in Deutschland eine gegenteilige Bewegung. Hier wird nicht gebremst, sondern beschleunigt. Deutschland, getrieben von einem Amalgam aus technologischem Minderwertigkeitskomplex, dem Scheitern eigener IT-Modernisierungsprojekte und politischem Aktionismus, manövriert sich sehenden Auges in eine Abhängigkeit, die Kritiker als „Kette der Ignoranz“ und als Kapitulation vor der Komplexität moderner Datenverarbeitung bezeichnen.

Das Drama, das sich hier entfaltet, ist nicht bloß eines der öffentlichen Beschaffung. Es ist ein Lehrstück über den Verlust politischer Gestaltungskraft. Während Bern die digitale Souveränität als unantastbares Gut definiert, das nicht gegen die vermeintliche Effizienz einer Software eingetauscht werden darf, scheint Berlin – und noch aggressiver die Landeshauptstädte Wiesbaden, Düsseldorf und München – bereit zu sein, verfassungsrechtliche Bedenken, finanzielle Warnsignale und technische Abhängigkeiten als Kollateralschäden einer „Sicherheit um jeden Preis“-Politik in Kauf zu nehmen. Die Software „Gotham“, benannt nach der düsteren, von Verbrechen zerfressenen Heimatstadt Batmans, wird in Deutschland nicht als Warnung, sondern als Versprechen begriffen – ein Versprechen, das jedoch, wie die Schweizer Analyse nahelegt, einen faustischen Pakt beinhaltet.

Dieser Bericht seziert die Mechanismen dieses deutschen Sonderwegs. Er analysiert die politischen Hinterzimmer, in denen Vergaberecht umschifft wurde, die parlamentarischen Debatten, in denen Warnungen verhallten, und die juristischen Schlupflöcher, die gegraben wurden, um die Rechtsprechung des Bundesverfassungsgerichts zu unterlaufen. Er stellt die Frage, warum das Risiko, das für die Schweiz „verheerend“ ist, für Deutschland als „akzeptabel“ gilt, und welche langfristigen Kosten – finanziell, politisch und gesellschaftlich – aus dieser Dissonanz erwachsen.

2. Das Schweizer Fanal: Eine Anatomie der Ablehnung#

2.1. Die Identifikation der „Verheerenden Risiken“#

Die Entscheidung der Schweiz gegen Palantir war kein Zufallsprodukt, sondern das Resultat einer systematischen Due-Diligence-Prüfung, die in ihrer Gründlichkeit einen scharfen Kontrast zur deutschen Praxis darstellt. Im Zentrum stand eine Evaluation durch den Armeestab im Dezember 2024 sowie Analysen des fedpol. Das Verdikt war eindeutig: Trotz der unbestrittenen analytischen Fähigkeiten der Softwareplattform „Gotham“ überwogen die strategischen Nachteile massiv. Der Begriff „verheerende Risiken“ , der in diesem Kontext fiel, bezieht sich nicht primär auf funktionale Mängel, sondern auf die geopolitische und datenschutzrechtliche Exponiertheit.

Die Schweizer Behörden erkannten, dass die Integration einer proprietären Software eines Unternehmens, das nicht nur eng mit dem US-Sicherheitsapparat verwoben ist, sondern dessen Gründungskapital direkt vom CIA-Investitionsarm In-Q-Tel stammte , eine fundamentale Verletzung der nationalen Datensouveränität darstellt. Im Gegensatz zu deutschen Entscheidungsträgern, die sich oft mit vertraglichen Zusicherungen zufrieden gaben, dass Daten „in eigenen Rechenzentren“ verbleiben würden, analysierten die Schweizer die rechtliche Realität des US Cloud Act und der FISA Section 702. Diese US-Gesetze ermöglichen amerikanischen Sicherheitsbehörden den Zugriff auf Daten von US-Unternehmen, unabhängig davon, wo die Server physisch stehen. Für eine neutrale Nation wie die Schweiz, die ihre Unabhängigkeit als höchstes strategisches Gut betrachtet, war das Risiko, dass sensible Polizeidaten oder militärische Informationen über eine „Hintertür“ oder durch legalen Zwang in die Hände fremder Dienste gelangen könnten, inakzeptabel.

2.2. Das „Öllampen-Geschäftsmodell“ als ökonomische Warnung#

Neben den souveränitätspolitischen Bedenken führte die Schweiz eine ökonomische Analyse durch, die das Geschäftsmodell von Palantir als klassische „Lock-in“-Falle identifizierte. Interne Berichte sprachen vom „Öllampen-Geschäftsmodell“: Der Anbieter verkauft die Lampe (die Software) zu einem scheinbar attraktiven Preis, wohlwissend, dass der Kunde fortan nur noch das Öl (Dienstleistungen, Updates, Anpassungen) dieses einen Anbieters nutzen kann, um das Licht am Leuchten zu halten.

Die Schweizer Analysten mussten hierfür keine hypothetischen Szenarien entwerfen; sie blickten lediglich über die Grenze nach Nordrhein-Westfalen (NRW). Die dortige Kostenexplosion beim Palantir-Projekt „DAR“ (Datenbankübergreifende Analyse und Recherche), wo die Kosten von ursprünglich veranschlagten 14 Millionen Euro auf fast 40 Millionen Euro anstiegen , diente als empirischer Beleg für die Unkalkulierbarkeit der Folgekosten. Die Schweiz erkannte, dass die Abhängigkeit von spezialisierten „Forward Deployed Engineers“ von Palantir dazu führt, dass das Wissen über die Funktionsweise der eigenen Sicherheitsarchitektur aus den Behörden abfließt und privatisiert wird. Wer das System nicht selbst warten kann, diktiert auch nicht den Preis für die Wartung. Diese ökonomische Weitsicht, die das langfristige Risiko höher bewertete als den kurzfristigen operativen Gewinn, fehlte in der deutschen Betrachtung weitgehend.

2.3. Ethische rote Linien: Rasterfahndung und BVerfG-Rezeption#

Bemerkenswert ist, dass die Schweiz zur Begründung ihrer Ablehnung explizit auch auf die deutsche Rechtsprechung verwies – konkret auf das Urteil des Bundesverfassungsgerichts (BVerfG) vom 16. Februar 2023. Während deutsche Innenministerien nach diesem Urteil hektisch nach Wegen suchten, die Software trotz der verfassungsrechtlichen Hürden weiterzubenutzen, nahmen die Schweizer das Urteil beim Wort.

Sie identifizierten die Gefahr der automatisierten Rasterfahndung, bei der unbescholtene Bürger („Nicht-Störer“) durch algorithmische Korrelationen ins Visier der Ermittler geraten könnten, als ethisch und rechtlich problematisch. Die Schweizer Behörden sahen in der Funktionsweise von Gotham – der Aggregation riesiger Datenmengen aus unterschiedlichsten Quellen zur Erstellung von Profilen – ein Instrument, das potenziell tief in die Privatsphäre eingreift, ohne dass ein konkreter Anfangsverdacht vorliegt. Dass ein Nachbarstaat die verfassungsgerichtlichen Warnungen Deutschlands ernster nimmt als die deutsche Exekutive selbst, entbehrt nicht einer gewissen bitteren Ironie und verdeutlicht die unterschiedlichen Prioritäten: Hier der Schutz der bürgerlichen Freiheit und der staatlichen Integrität, dort der unbedingte Wille zur technologischen Aufrüstung.

3. Hessen: Der Sündenfall und die Genese der Abhängigkeit#

3.1. Silicon Valley Safari: Die Verführung des Peter Beuth#

Um das „Drama“ auf deutscher Seite zu verstehen, muss man zum Ursprung zurückkehren: Hessen, 2016. Der damalige Innenminister Peter Beuth (CDU) unternahm eine Delegationsreise ins Silicon Valley. Was als Informationsreise deklariert war, entpuppte sich im Rückblick als der Moment der technopolitischen Infektion. Beuth und seine Entourage ließen sich von den Hochglanz-Präsentationen in Palo Alto blenden. Die Narrative von Palantir – die erfolgreiche Jagd auf Osama bin Laden, die Abwehr von Terroranschlägen durch Big Data – fielen bei den hessischen Sicherheitspolitikern, die unter dem Eindruck der Anschläge von Paris und Brüssel standen, auf fruchtbaren Boden.

Der Untersuchungsausschuss des Hessischen Landtags förderte später Details zutage, die das Bild einer fast naiven Faszination zeichnen. Ein Frühstückstreffen zwischen Minister Beuth und Palantir-CEO Alex Karp im Hotel Oranien in Wiesbaden, das zwischen den offiziellen Vergabeprozessen stattfand, wurde zum Symbol für die ungesunde Nähe zwischen Auftraggeber und Auftragnehmer. Kritiker wie Ulrich Wilken (Die Linke) warfen dem Minister vor, sich „elegant um die relevanten Fragen herumgewunden“ zu haben und die Geschäftsbeziehung jenseits regulärer bürokratischer Prozesse angebahnt zu haben.

3.2. Die „Freihändige Vergabe“: Das Ausschalten des Wettbewerbs#

Der eigentliche Skandal in Hessen lag jedoch nicht im Frühstücksei, sondern in der Umgehung des Vergaberechts. Anstatt die Beschaffung einer Analyseplattform europaweit auszuschreiben, wie es bei einem Auftragsvolumen dieser Größe zwingend erforderlich gewesen wäre, entschied sich das hessische Innenministerium für eine „freihändige Vergabe“ an Palantir. Die Begründung: Dringlichkeit und Alleistellungsmerkmal. Man argumentierte, dass angesichts der akuten Terrorgefahr keine Zeit für eine Ausschreibung sei und dass weltweit kein anderes Unternehmen eine vergleichbare Lösung bieten könne.

Gutachter im Untersuchungsausschuss widersprachen dieser Darstellung vehement. Sie benannten Unternehmen wie IBM, SAP oder SAS als potenzielle Alternativen, die jedoch nie ernsthaft geprüft wurden. Die Festlegung auf Palantir war, so legt es die Chronologie nahe, politisch gewollt und nicht das Ergebnis eines objektiven Marktvergleichs. Durch diesen Schritt wurde Hessen zum „Beachhead“ (Brückenkopf) für Palantir in Deutschland. Einmal im System installiert, nutzte der Konzern die Referenz „Polizei Hessen“, um andere Bundesländer und den Bund zu akquirieren. Die Strategie ging auf: Wer einmal die Palantir-Architektur implementiert hat, für den werden die Wechselkosten prohibitiv hoch.

3.3. Hessendata: Operative Realität und der Verlust der Kontrolle#

Das eingeführte System „Hessendata“ (basierend auf Palantir Gotham) veränderte die Polizeiarbeit fundamental. Es ermöglichte die Verknüpfung von Daten aus drei verschiedenen Quellenbereichen: polizeiliche Datenbestände, Daten aus sozialen Medien und andere verfügbare Informationen. Doch mit der Einführung ging ein schleichender Kontrollverlust einher. Berichte legen nahe, dass die Palantir-Tochter nicht nur die Software lieferte, sondern faktisch mit dem Betrieb der Plattform beauftragt wurde.

Dies ist ein entscheidender Unterschied. Wenn ein privates Unternehmen, noch dazu eines mit US-Geheimdiensthintergrund, den operativen Betrieb der wichtigsten polizeilichen Analyseplattform übernimmt, verschwimmt die Grenze zwischen staatlicher Hoheitsaufgabe und privater Dienstleistung. Der hessische Landesdienstleister (Hessische Zentrale für Datenverarbeitung) war zeitweise kaum in der Lage, nachzuvollziehen, was genau auf den Servern passierte, da das System eine „Blackbox“ blieb. Die Abhängigkeit war damit nicht mehr nur finanziell, sondern operativ zementiert.

4. Nordrhein-Westfalen: Die Replikation des Fehlers und die Kostenfalle#

4.1. Von Hessen lernen heißt zahlen lernen: Die Explosion der Kosten#

Dem hessischen Vorbild folgend, entschied sich auch Nordrhein-Westfalen unter Innenminister Herbert Reul (CDU) für den Einsatz von Palantir unter dem Projektnamen „DAR“ (Datenbankübergreifende Analyse und Recherche). Auch hier wiederholte sich das Muster der anfänglichen Euphorie, gefolgt von einer ernüchternden Realität – insbesondere auf dem Konto.

Die folgende Tabelle verdeutlicht die Diskrepanz zwischen politischem Versprechen und fiskalischer Realität im Kontext der Palantir-Projekte:

Die Kostenexplosion in NRW um fast das Dreifache ist exemplarisch für das „Oil Lamp“-Modell. Die Komplexität der Integration in die zerklüftete IT-Landschaft der Polizei NRW erforderte massive Anpassungsleistungen, die nur von Palantir selbst erbracht werden konnten. Jeder Änderungswunsch, jede neue Datenquelle ließ die Kasse klingeln. Kritiker bemängeln, dass diese Kostenfalle vorhersehbar war, aber ignoriert wurde, um das Projekt politisch durchzusetzen.

4.2. Der Fall Amad Ahmad und das Prinzip „Garbage In, Garbage Out“#

Die wohl dunkelste Seite der Technologisierung der Polizeiarbeit in NRW zeigt sich im Kontext des Falls Amad Ahmad. Zwar war Palantir nicht die direkte Ursache für dessen Tod, aber der Fall illustriert die tödlichen Gefahren der Datenverknüpfung, auf denen Systeme wie DAR basieren. Amad Ahmad, ein syrischer Flüchtling, wurde aufgrund einer Datenverwechslung (einem sogenannten „Namens-Cross-Hit“) inhaftiert. Die Polizei verwechselte ihn mit einem gesuchten Kriminellen aus Mali, der einen ähnlichen Namen nutzte. Ahmad verbrannte später in seiner Zelle in der JVA Kleve.

Experten warnen im Kontext von Palantir eindringlich vor dem Prinzip „Garbage In, Garbage Out“. Systeme wie Gotham sind darauf ausgelegt, Verbindungen zu finden. Wenn sie mit Daten gefüttert werden, die voller Dubletten, Schreibfehler und veralteter Einträge sind – was auf die deutschen Polizeidatenbanken (INPOL, ViVA) zutrifft –, produziert das System Fehler in industriellem Maßstab. Es generiert Verdächtigungen und Verknüpfungen, die in der Realität nicht existieren. Im Fall von Amad Ahmad führte ein solcher Datenfehler zum Freiheitsentzug. Mit der Einführung von Palantir, das solche Verknüpfungen automatisiert und beschleunigt, steigt das Risiko, dass solche Fehler nicht mehr als Einzelfälle erkannt, sondern als systemische Wahrheit akzeptiert werden. Die Software suggeriert eine Objektivität, die die zugrundeliegenden schmutzigen Daten nicht hergeben.

4.3. Legalisierung des Illegalen: Der § 24b PolG NRW#

Ein weiterer Akt im NRW-Drama war der Umgang mit Echtdaten. Um das System DAR zu testen und zu trainieren, nutzte die Polizei NRW reale Personendaten aus ihren Systemen. Der Landesdatenschutzbeauftragte stufte dieses Vorgehen als rechtswidrig ein, da es keine gesetzliche Grundlage für die Nutzung von Echtdaten zu Testzwecken gab. Anstatt das System abzuschalten, reagierte die Politik mit einer Gesetzesänderung. Mit der Einführung des § 24b in das Polizeigesetz NRW wurde nachträglich eine Rechtsgrundlage geschaffen, die das Trainieren von KI und IT-Produkten mit Echtdaten explizit erlaubt. Kritiker sehen hierin eine bedenkliche Verschiebung: Nicht die Technologie muss sich dem Recht beugen, sondern das Recht wird passend gemacht, um den Einsatz der Technologie zu ermöglichen. Diese „Legalisierung durch die Hintertür“ untergräbt das Vertrauen in den Rechtsstaat und signalisiert den Bürgern, dass Datenschutz nur so lange gilt, bis er der Exekutive im Weg steht.

5. Das Bayerische Manöver und die Bundes-Falle#

5.1. VeRA: Der Rahmenvertrag als Trojanisches Pferd#

Bayern wählte einen noch aggressiveren Ansatz. Mit dem Projekt „VeRA“ (Verfahrensübergreifende Recherche und Analyse) schloss der Freistaat einen Rahmenvertrag mit Palantir, der weit über die bayerischen Landesgrenzen hinausreicht. Der Vertrag ist so konstruiert, dass er dem Bund und anderen Ländern den Beitritt ermöglicht, ohne eigene Ausschreibungen durchführen zu müssen. Dies ist ein brillanter Schachzug zur Umgehung des Vergaberechts. Die Bundespolizei und das Bundeskriminalamt (BKA), die eigentlich an strenge Bundesvergaberichtlinien gebunden sind, nutzen nun das Konstrukt der „Amtshilfe“ und Verwaltungsvereinbarungen, um auf die bayerische Lizenz zuzugreifen. Kritiker, darunter die Gesellschaft für Freiheitsrechte (GFF) und der Chaos Computer Club (CCC), bezeichnen dies als einen bewussten Trick, um eine öffentliche Debatte und eine transparente Konkurrenzsituation auf Bundesebene zu verhindern. Das Argument: „Bayern hat es ja schon geprüft und gekauft, wir schließen uns nur an.“

5.2. Der politische Druck auf den Bund: Faeser in der Zange#

Auf Bundesebene tobt ein Kampf um die „Bundes-VeRA“. Die Union (CDU/CSU) drängt Innenministerin Nancy Faeser (SPD) massiv, den flächendeckenden Rollout der Software zu genehmigen und die notwendigen gesetzlichen Anpassungen vorzunehmen. In parlamentarischen Anträgen wird das Fehlen der Software als Sicherheitsrisiko dargestellt, das die Handlungsfähigkeit der Polizei im Kampf gegen Clankriminalität und Terrorismus gefährde. Faeser steht unter Druck. Einerseits warnen Koalitionspartner wie die Grünen (Konstantin von Notz) und Teile der FDP vor den Risiken und der Abhängigkeit. Andererseits argumentieren BKA und Bundespolizei, dass sie ohne das Tool „blind“ seien, da ihre eigenen IT-Modernisierungsprojekte („Polizei 2020“) stocken. Die Absurdität der Situation liegt darin, dass der Bund eine Software einführen will (via Bayern), deren Nutzung in ihrer aktuellen Form vom Bundesverfassungsgericht massiv eingeschränkt wurde.

6. Die Verfassungsrechtliche Kollision: Karlsruhe gegen die Realität#

6.1. Das Urteil vom 16. Februar 2023: Eine Zäsur#

Am 16. Februar 2023 fällte das Bundesverfassungsgericht ein Urteil, das eigentlich das Ende der Palantir-Träume hätte bedeuten müssen. Das Gericht erklärte die gesetzlichen Grundlagen für die automatisierte Datenanalyse in Hessen (§ 25a HSOG) und Hamburg für verfassungswidrig. Die Karlsruher Richter formulierten strenge Anforderungen:

  1. Zweckbindungsgebot: Daten dürfen nicht wahllos für neue Zwecke (Data Mining) genutzt werden. Eine hypothetische Datenneuerhebung muss rechtlich möglich sein.
  2. Datentrennung: Es muss technisch sichergestellt sein, dass Daten, die einem Verwertungsverbot unterliegen oder für den konkreten Zweck nicht relevant sind, nicht in die Analyse einfließen.
  3. Eingriffsschwelle: Der Einsatz solcher mächtigen Werkzeuge darf nur zum Schutz überragend wichtiger Rechtsgüter erfolgen.

6.2. Die Reaktion der Politik: Missachtung des Geistes#

Die Reaktion der Politik auf dieses Urteil war bezeichnend. Anstatt innezuhalten, begannen die Ministerien sofort mit der Arbeit an „Reparaturgesetzen“. Das Ziel war nicht, die Überwachung zurückzufahren, sondern die Gesetzestexte so anzupassen, dass sie formal den Anforderungen genügen, während die Praxis unverändert weiterläuft. In Hessen wurde das HSOG novelliert, in NRW und Bayern wurden ähnliche Anpassungen vorgenommen. Kritiker argumentieren, dass diese Anpassungen reine Kosmetik sind. Technisch ist die Software Palantir Gotham kaum in der Lage, die feingranulare Datentrennung und Zweckbindung, die das Gericht fordert, umzusetzen, da sie darauf ausgelegt ist, alles mit allem zu verknüpfen.

6.3. Die Kapitulation: § 91 BKAG#

Der wohl dramatischste Akt der Missachtung ist der Umgang mit § 91 BKAG auf Bundesebene. Das Gesetz sah vor, dass Daten in den Systemen des BKA technisch gekennzeichnet werden müssen, um ihre Herkunft und ihren Verwendungszweck zu markieren – eine Grundvoraussetzung für die verfassungskonforme Nutzung von Analysesoftware. Da die veralteten IT-Systeme des Bundes (INPOL) dies technisch nicht leisten können, entschied die Bundesregierung nicht etwa, die Systeme zu erneuern oder auf die Analysesoftware zu verzichten. Stattdessen wurde die Inkraftsetzung der Kennzeichnungspflicht im Gesetz einfach ausgesetzt und verschoben. Dies ist eine Bankrotterklärung des Rechtsstaats: Weil der Staat technisch inkompetent ist („IT-Steinzeit“), setzt er verfassungsrechtlich gebotene Schutzmechanismen außer Kraft, um den Einsatz einer umstrittenen Software zu ermöglichen. Dieser Vorgang brachte dem BKA den „Big Brother Award“ ein und verdeutlicht die Prioritätenverschiebung: Technologie geht vor Verfassung.

7. Palantir Technologies: Ideologie und Einfluss#

Hinter der Software steht nicht irgendein IT-Dienstleister, sondern ein Unternehmen mit einer klaren politischen Agenda. Peter Thiel, Mitgründer und treibende Kraft, ist bekannt für seine libertären, demokratieskeptischen Ansichten und seine enge Nähe zu Donald Trump. CEO Alex Karp positioniert Palantir offen als Werkzeug westlicher (d.h. US-amerikanischer) Vorherrschaft. Das Unternehmen sieht sich im systemischen Wettbewerb mit China und anderen Mächten und betrachtet Datenschutz oft als hinderliches Hindernis in diesem Kampf. Indem deutsche Polizeibehörden diese Software nutzen, importieren sie nicht nur Code, sondern auch eine Ideologie. Die Software wurde in Afghanistan und im Irak entwickelt, um Aufständische zu jagen („Find, Fix, Finish“). Die Anwendung dieser militärischen Logik auf die zivile Polizeiarbeit in Deutschland, wo es um Gefahrenabwehr und Strafverfolgung im Rahmen der Unschuldsvermutung geht, führt zu einer gefährlichen Militarisierung der inneren Sicherheit. Zudem besteht das Risiko, dass Palantir durch den Zugriff auf deutsche Daten seine Algorithmen trainiert und verfeinert. Deutsche Polizeidaten könnten so indirekt dazu beitragen, die Überwachungstechnologie zu optimieren, die Palantir weltweit an Geheimdienste und Militärs verkauft. Deutschland wird zum Testlabor und Datenlieferanten für den US-Sicherheitskomplex.

8. Fazit: Der Preis der Bequemlichkeit#

Der Vergleich zwischen der Schweiz und Deutschland ist mehr als eine technische Fallstudie; er ist ein Spiegelbild politischer Souveränität. Die Schweiz hat erkannt, dass Souveränität im digitalen Zeitalter bedeutet, „Nein“ sagen zu können. Sie akzeptiert, dass der Verzicht auf Palantir vielleicht kurzfristig weniger komfortabel ist, aber langfristig die einzige Möglichkeit darstellt, die Kontrolle über die eigenen Sicherheitsinteressen und Bürgerdaten zu behalten. Das Urteil „verheerende Risiken“ ist ein Zeugnis von Realitätssinn.

Deutschland hingegen hat sich für den Weg des geringsten Widerstands entschieden. Konfrontiert mit dem eigenen Versagen bei der IT-Modernisierung („Polizei 2020“-Desaster), griff man nach dem rettenden Strohhalm aus dem Silicon Valley. Doch der Preis dafür ist hoch:

  1. Verlust der digitalen Souveränität: Deutschland macht seine innere Sicherheit abhängig von einem US-Konzern, der politisch agiert und rechtlich dem Zugriff von US-Diensten unterliegt.
  2. Erosion des Rechtsstaats: Gesetze werden passend gemacht, Gerichtsurteile ignoriert oder kreativ ausgelegt, um den Einsatz der Software zu sichern.
  3. Finanzielle Unvernunft: Die Kosten explodieren, und der Lock-in-Effekt sorgt dafür, dass es kein Zurück mehr gibt.

Das „Drama“, das der Nutzer in seiner Anfrage suchte, ist real. Es ist das Drama eines Staates, der seine technologische Mündigkeit an der Garderobe eines Hotels in Wiesbaden abgegeben hat, in der Hoffnung, dass ein Tech-Milliardär aus Kalifornien seine Sicherheitsprobleme löst. Während die Schweiz souverän bleibt, wird Deutschland zur digitalen Kolonie – und feiert dies auch noch als Fortschritt.

Transparenz-Hinweis: Verzeichnis der verwendeten Datenpunkte und Belege#

Um die im Artikel getroffenen Aussagen zu untermauern, legen wir hier die zentralen Themen und deren Quellenbasis offen:

  • Schweiz Rejection: Basierend auf der Fedpol-Analyse zu "verheerenden Risiken", berichtet u.a. via netzpolitik.org.
  • Deutschland vs. Schweiz: Vergleich der Ansätze, das "Öllampen-Modell", Zitate von Amad A. und Bezüge zum BVerfG sowie §91 BKAG (Quelle: Police-IT u.a.).
  • NRW Kostenexplosion: Daten zum DAR-Projekt, die einen Anstieg von ursprünglich geschätzten 14 Mio. € auf ca. 40 Mio. € belegen.
  • Bayern/Bund (VeRA): Informationen zum "Amtshilfe-Trick" zur Umgehung von Vergaberecht, dem politischen Druck der Union und der Situation beim BKA.
  • BVerfG Urteil (Feb 2023): Das Grundsatzurteil zur Verfassungswidrigkeit der bisherigen Praxis und den daraus resultierenden Auflagen.
  • Legalizing Illegal (NRW): Bezug auf § 24b PolG NRW, der das Training von KI-Systemen mit Echtdaten unter bestimmten Voraussetzungen legalisiert.
  • Palantir Background: Hintergründe zur Finanzierung via In-Q-Tel (CIA), der Verbindung von Peter Thiel zu Donald Trump und der ideologischen Ausrichtung.
  • Politische Opposition: Zusammenfassung der Kritik von Konstantin von Notz (Grüne), der FDP und der Zivilgesellschaft.

Quellenangaben#

  1. Schweiz: Palantir-Software hat verheerende Risiken - netzpolitik.org
  2. Die Schweiz zeigt, wie souveräne Politik geht: Warum wir in Deutschland endlich kritisch über Palantir entscheiden müssen - Police-IT
  3. Verfassungsbeschwerde: Das Problem heißt nicht nur Palantir - netzpolitik.org
  4. Nordrhein-Westfalen: Palantir-Software kostet fast drei Mal soviel wie geplant - netzpolitik.org
  5. Hessendata-Untersuchungsausschuss: Von echter Aufklärung keine Spur - Police-IT
  6. Palantir-Untersuchungsausschuss: Innenminister Peter Beuth (CDU) stiehlt sich aus der Verantwortung - DIE LINKE. Fraktion im Hessischen Landtag
  7. Palantir in Hessen - vereint Daten von Facebook & Co mit polizeilichen Datenbanken?? - Police-IT
  8. Zum Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse und seinen Folgen - Police-IT
  9. E 18/1493 - Landtag NRW (PDF)
  10. Polizeiliche Analyse-Software „Bundes-VeRA“ - Deutscher Bundestag
  11. CCC | Blackbox Palantir - Chaos Computer Club
  12. Nutzung HessenDATA durch Behörden und Dienststellen außerhalb der hessischen Polizei (PDF)
  13. Blackbox Palantir: GFF erhebt Verfassungsbeschwerde gegen massenhafte Datenauswertung durch Polizei in Bayern - Gesellschaft für Freiheitsrechte e.V.
  14. Wortprotokoll der 74. Sitzung - Deutscher Bundestag (PDF)
  15. Verhindert das Bundesinnenministerium bewusst eine Debatte um mögliche Palantir-Alternativen? | GRÜN DIGITAL
  16. Kontroverse über Verwendung von Palantir-Software in deutschen Sicherheitsbehörden verschärft sich - InvestmentWeek
  17. Automatisierte Datenanalyse der Polizei in Hessen und Hamburg verfassungswidrig - beck-aktuell
  18. Regelungen in Hessen und Hamburg zur automatisierten Datenanalyse für die vorbeugende Bekämpfung von Straftaten sind verfassungswidrig - Bundesverfassungsgericht (Pressemitteilung)
  19. US-Analysesoftware: Palantir macht Polizei und Militär politisch - netzpolitik.org


Palantir: Ein Lehrstück über Vendor Risk Management | Kopexa