Archiv

KI in der zivilen Sicherheitsforschung

„Künstliche Intelligenz in der zivilen Sicherheitsforschung“ , Einreichungsfrist: 24.02.2020

Im Rahmen dieser Förderrichtlinie soll ein Beitrag dazu geleistet werden, die Potenziale der Künstlichen Intelligenz zur Erhöhung der Sicherheit der Bürgerinnen und Bürger zu identifizieren und daraus anwendungsbezogen Lösungen zu erarbeiten. Diese Förderrichtlinie adressiert ausschließlich Lösungsansätze, die der „schwachen“ Künstlichen Intelligenz zuzuordnen sind. Es sollen kognitive Leistungen des Menschen in konkreten Anwendungen unterstützt werden. Dabei muss die Fähigkeit zur Selbstoptimierung bzw. das Anlernen durch den Anwender ein integraler Bestandteil des Lösungs­ansatzes sein. Lösungen auf Basis rein regelbasierter Systeme werden nicht berücksichtigt.

Die Förderrichtlinie ist für bilaterale Projekte mit Partnern aus Österreich geöffnet. Die Ergebnisse des geförderten Vorhabens dürfen nur in der Bundesrepublik Deutschland oder dem EWR und der Schweiz genutzt werden.

Gefördert werden interdisziplinäre Forschungsverbünde, bestehend aus mehreren Projektpartnern, die mit ihren innovativen Ansätzen unter Einsatz von Künstlicher Intelligenz mindestens eine der drei Säulen des Sicherheits­forschungsprogramms („Schutz und Rettung von Menschen“, „Schutz kritischer Infrastrukturen“ und „Schutz vor Kriminalität und Terrorismus“) adressieren. Die Ansätze sollen dabei konkrete Anwendungsprobleme lösen. Aspekte menschlicher Intelligenz sollen nachgebildet und formal beschrieben bzw. Systeme zur Simulation und Unterstützung menschlichen Denkens konstruiert werden („schwache“ Künstliche Intelligenz). Die erarbeiteten Lösungen sollen dabei keine Entscheidungen treffen, sondern das menschliche Handeln unterstützen. Es ist darauf zu achten, dass die Lösungen nicht als „Blackbox“ entstehen, sondern das Vertrauen in Künstliche Intelligenz stärken, indem die Grundlagen für Handlungsempfehlungen und Analysen dem Nutzer nachvollziehbar aufgezeigt werden. Darüber hinaus müssen die Lösungen so ausgelegt sein, dass sich durch den Einsatz von Künstlicher Intelligenz keine neuen Gefahrenpotenziale ergeben und Möglichkeiten eines missbräuchlichen Einsatzes sowie manipulativer Eingriffe minimiert werden.

Beispiele für mögliche Forschungsfelder sind:

Risikomanagement:

  • Vorhersage von Ausfällen und Störungen in sicherheitsrelevanten Systemen
  • Früherkennungs- und Warnsysteme für europäische Krisen und Naturkatastrophen
  • Identifikation von Ursachen sowie Abschätzung von Gefährdungspotenzialen
  • Früherkennung neuer Kriminalitätsfelder

Auswertung von Massendaten:

  • Analyse von Bild-, Video-, Text-, Audio- und Internetdaten zur Unterstützung bei der Lageerfassung und -einschätzung
  • Gezielte Auswertung und Aufbereitung von Bild-, Video-, Text-, Audio- und Internetdaten zur Unterstützung bei der Beweisführung (zum Beispiel Handschriftensammlung in digitalisierten Schriftproben und Tatschriften)
  • Digitale Forensik und Kriminaltechnik

Qualifizierung von Anwendern:

  • Erfassung, Erkennung und Nutzbarmachung von Handlungs- und Erfahrungswissen (zum Beispiel Wissens­management in Bezug auf Personaländerung)
  • Fragen der Künstlichen Intelligenz-Nutzung im Einsatztraining
  • Analyse und Auswertung von realen Einsatzdaten für Schulungszwecke
  • Simulationen für Training und Schulung von Anwendern
  • Schulung der Anwender auf Systemen der Künstlichen Intelligenz

Entscheidungsunterstützung:

  • Steuerung und Überwachung intermodaler Systeme
  • Unterstützung bei der Bewältigung komplexer Lagen
  • Erkennung von Fake-Inhalten und professioneller Desinformation

Zusätzlich zu den Projekten zur Lösung konkreter Anwendungsprobleme können Verbundprojekte gefördert werden, die sich mit übergreifenden und ganzheitlichen Grundsatzfragen rund um den Einsatz von Künstlicher Intelligenz in der Sicherheitsforschung befassen.

Beispiele für mögliche Grundsatzfragen sind:

  • Ethische, juristische und gesellschaftliche Aspekte:
  • Untersuchungen zu Akzeptanz und Vertrauen in der Bevölkerung und bei den Anwendern
  • Betrachtung von nicht intendierten Folgen
  • Transparenz von Künstlicher Intelligenz-Entscheidungen („AI Black-Box Explanation Problem“)
  • Aspekte der Datengewinnung, Datenerzeugung und Datennutzung:
  • Schaffung der Grundlagen zur Gewinnung von Daten für Training und Evaluation von Künstlicher Intelligenz (Referenzdaten, realitätsabbildende Echtdaten, Werkzeuge, Verfahren)
  • Verfügbarkeit, Neutralität und Qualität von Daten
  • Generierung künstlicher Trainingsdaten

Die Entwicklung von reinen/r IT-Sicherheitssystemen/Software sowie die Betrachtung reiner Angriffe auf IKT-Systeme ist explizit von der Förderung ausgenommen. Die angestrebten Ergebnisse müssen deutlich über den aktuellen Stand von Wissenschaft und Technik hinausgehen. Sie müssen klare Leistungsvorteile gegenüber verfügbaren Lösungen und ein hohes wirtschaftliches Anwendungspotenzial aufweisen.

Gefördert werden Verbundprojekte mit einer Laufzeit bis zu 3 Jahren. Die Förderrichtlinie ist für bilaterale Projekte mit Partnern aus Österreich geöffnet. Die Projektlaufzeit sollte dann 2 Jahre nicht überschreiten.

Antragsberechtigt sind u.a. Unternehmen der gewerblichen Wirtschaft, Hochschulen, Forschungseinrichtungen, Verbände und Non-Profit-Organisationen, Behörden und Kommunen. Die Förderquote für Unternehmen beträgt bis zu 50 % der zuwendungsfähigen Kosten.

Projektträger ist die VDI Technologiezentrum GmbH – Projektträger Sicherheitsforschung –
In der ersten Verfahrensstufe ist dem Projektträger eine Projektskizze bis spätestens zum 14. Februar 2020 einzureichen.