Navigation und Service

-

Datenkompetenzen für den wissenschaftlichen Nachwuchs – Förderung von 34 Projekten gestartet : Datum:

Das BMBF fördert die Bearbeitung fachspezifischer Fragestellungen mit datenwissenschaftlichen Methoden. Die Etablierung neuer Datenkompetenzen setzt Innovationspotenziale frei und regt so einen Kulturwandel der Datenerhebung und -nutzung an.

Aufbau von Datenkompetenzen beim wissenschaftlichen Nachwuchs © Adobe Stock/ VectorMine

Die Digitalisierung ändert unseren Umgang mit und die Nutzung von Daten – auch in der Wissenschaft. Die stetige Entwicklung neuer digitaler Forschungsmethoden und die zunehmende Menge an verfügbaren Forschungsdaten bieten viele Chancen für neuen Erkenntnisgewinn: Mithilfe von Datenanalysen können neue Forschungsfragen entwickelt und bestehende Forschungsfragen erstmalig oder auf eine neue Weise bearbeitet werden. Mit neuen technischen Möglichkeiten steigen aber auch die Anforderungen an die Forschenden in Bezug auf ihre digitalen und datenbezogenen Kompetenzen. Besonders Nachwuchswissenschaftlerinnen und -wissenschaftler profitieren dabei von neuen Analysemethoden und digitalen Arbeitsweisen, die ihnen helfen, Forschungsfragen (besser als bisher) zu beantworten. Daher lassen sich hier besonders gut Innovationspotenziale durch die Vermittlung von Wissen und Fähigkeiten zur datenbasierten Forschung freisetzen. Doch sind die notwendigen Kompetenzen oftmals nicht dort vorhanden, wo sie ebendies ermöglichen würden.

Während einige Forschungsdisziplinen bereits seit Jahren intensiv mit digitalen Forschungsdaten arbeiten, herrscht in anderen Disziplinen noch Entwicklungs- und Wissensbedarf. Mit der Förderrichtlinie zur „Stärkung der Datenkompetenzen des wissenschaftlichen Nachwuchses“ möchte das Bundesforschungsministerium diese Herausforderungen adressieren und wichtige Ziele des in der Datenstrategie der Bundesregierung verankerten Aktionsplans Forschungsdaten umsetzen.

Förderung von 34 Projekten gestartet

Im Rahmen von Kooperationsprojekten arbeiten fachlich versierte Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler zusammen mit datenwissenschaftlichen Expertinnen und Experten, um aus bestehenden Daten neue fachliche Erkenntnisse zu generieren. Dabei liegt die tragende Rolle beim wissenschaftlichen Nachwuchs, der seine Datenkompetenzen steigert und gleichzeitig dafür Sorge trägt, die Kompetenzen und Methoden in die Breite zu tragen. Das BMBF fördert dabei explizit die Wissenschaftskommunikation und die öffentliche Darstellung innovativer Methodennutzung innerhalb der Forschungscommunity und in die interessierte Öffentlichkeit hinein, beispielsweise durch Konferenzbeiträge, Veröffentlichungen in Fachzeitschriften oder die Ausrichtung projektspezifischer Veranstaltungen. Im Rahmen der Fördermaßnahme wurden alle Wissenschaftsbereiche adressiert, wobei die zu erlangenden Kenntnisse in dem entsprechenden fachlichen Kontext noch nicht etabliert sein durften. Das BMBF möchte somit eine leistungsstarke und zukunftsorientierte Datenkultur in der Forschung unterstützen.

Über einen Zeitraum von drei Jahren werden 34 Projekte gefördert, die ein großes Potenzial zur breiteren und tieferen Verankerung der datengetriebenen Arbeit in verschiedenen Wissenschaftsfeldern mit sich bringen. Die Vielfalt an Fachrichtungen von Geistes- und Sozialwissenschaften über Lebenswissenschaften, Naturwissenschaften bis hin zu Ingenieurswissenschaften soll es ermöglichen, eine breit aufgestellte Datenkultur in der Wissenschaft und Forschung zu etablieren und Innovationspotenziale zu heben. Alle Projekte sind zwischen September und Dezember 2022 gestartet. Die Fördermaßnahme wird aus der Aufbau- und Resilienzfazilität der EU finanziert.

3D-ADAM

Die Hochschule für Technik und Wirtschaft Dresden untersucht in Zusammenarbeit mit der Technischen Universität Dresden im Verbundprojekt 3D-ADAM, inwiefern sich von Experimenten mit 3D in-vitro Tumorsphäroiden auf den Behandlungserfolg bei makroskopischen in-vivo Tumoren schließen lässt. Dafür analysiert das Projekt biomedizinische Daten zu Integrität, Wachstum und Recovery von multizellulären 3D-Tumorsphäroiden nach Bestrahlung mathematisch-statistischen Forschungsmethoden sowie geeigneten Verfahren der künstlichen Intelligenz. Hier geht’s zum Projekt! 

AnDy

Das Projekt AnDy der Philipps-Universität Marburg analysiert unter Einsatz von Methoden der Künstlichen Intelligenz die Variation zwischen Standardsprache und Dialekt in authentischen Gesprächen. Dazu werden Daten von Personen unterschiedlicher Generationen aus ganz Deutschland herangezogen. Darüber hinaus wird untersucht, ob es einen Zusammenhang zwischen dem Variationsverhalten und den sozialen, biographischen und situativen Bedingungen der Personen gibt. Hier geht's zum Projekt!

BeACTIVE

Das Institut für Sport und Sportwissenschaft und das Forschungszentrum Informatik adressieren die Entwicklung von Datenkompetenz in den Gesundheits- und Sportwissenschaften. Das Projekt BeACTIVE konzentriert sich dabei auf eines der größten Gesundheitsprobleme: Bewegungsmangel. Mit Hilfe mobiler und digitaler Technologien soll ein System entwickelt werden, das zur richtigen Zeit und in der richtigen Umgebung zum Aufstehen oder zu mehr Bewegung auffordert. Hier geht's zum Projekt!

BioTrain

BioTrain der Hochschule Anhalt zielt darauf ab, maschinelles Lernen zu nutzen, um Prozesse und Muster zu finden, die sich auf die Biodiversität auswirken. Dazu wird in zwei Bereichen geforscht. Im Bereich „Mobile Links“ wird analysiert, wie sich Tiere bewegen und miteinander interagieren, um Muster und Auswirkungen auf Lebensgemeinschaften zu identifizieren. Im Bereich „Mikrobielle Gemeinschaften“ wird untersucht, wie sich mikrobielle Gemeinschaften, Bodenfunktionen und Landwirtschaft gegenseitig beeinflussen. Hier geht's zum Projekt!

ClimateVisions

Die Technische Universität München untersucht zusammen mit der Universität Siegen im Verbundprojekt ClimateVisions, welche Art von Bildern zu starken Reaktionen und Emotionen bei Social-Media-Nutzerinnen und -Nutzern führt und wie sich das Bild des Klimawandels durch den Aufstieg von Social Media verändert und diversifiziert. In diesem Zusammenhang werden Methoden zur Bild- und Emotionsanalyse vorangebracht und Bildgruppierungsmethoden weiterentwickelt. Hier geht's zum Projekt!

DAKODA

Das Verbundprojekt DAKODA zielt darauf ab, die Eignung sprachtechnologischer Analyseverfahren zur Erforschung von Aspekten des Erwerbs des Deutschen als Fremd- bzw. Zweitsprache (L2) zu prüfen. Dies geschieht am Beispiel der Spezifikation der in der L2-Erwerbsforschung zentralen morphologischen und syntaktischen sogenannten Erwerbsstufen gemäß der Processability Theory. Die Koordinierung des Verbundprojekts obliegt der Otto-Friedrich-Universität Bamberg – Projektpartner ist die FernUniversität in Hagen. Hier geht’s zum Projekt! 

DaNuMa

Das Projekt DaNuMa der Georg-August-Universität Göttingen will mit Hilfe von Machine-Learning-Algorithmen Verhaltensmuster bei Nutztieren erkennen. Durch das Tracking von Bildmaterial sollen frühzeitig Verhaltensmuster erkannt werden, die Aufschluss über Tierwohl, Tiergesundheit und Leistung geben. Dadurch soll es möglich werden, rechtzeitig notwendige Maßnahmen zu ergreifen, um den Anforderungen an die Nutztierhaltung gerecht zu werden. Hier geht's zum Projekt!

DAPHONA

Das Projekt DAPHONA des Karlsruher Instituts für Technologie (KIT) untersucht sehr kleine Strukturen (kleiner als 500 Nanometer). Diese Strukturen, Streuer genannt, können viele verschiedene Anwendungen haben, von der Bildgebung über Sensoren bis hin zu Quantentechnologien. Ziel des Projekts ist es, Technologien zu entwickeln, mit denen die geometrischen und Materialeigenschaften der Streuer und ihre optischen Eigenschaften in einer einheitlichen Datenstruktur zusammengeführt werden können. Darüber hinaus soll das umgekehrte Problem gelöst, d.h. Streuer mit vordefinierten optischen Eigenschaften identifiziert werden. Hier geht's zum Projekt!

EDV-TEK

Das Projekt EDV-TEK der Technischen Universität Hamburg untersucht die Entstehung, Diffusion und Verwertung von Technologien zur Eindämmung des Klimawandels. Durch die Implementierung neuronaler Netzwerke zur Texterkennung und Ähnlichkeitsmessung sollen die Limitationen von etablierten Methoden der Technologieforschung (automatisiert) überwunden werden. Hier geht's zum Projekt!

FLACA

Die Universität Hamburg und das Leibniz-Institut für Medienforschung Hans-Bredow-Institut (HBI) zielen im Verbundprojekt FLACA darauf ab, den aktuellen Forschungsstand im Informatik-Bereich des Natural Language Processing in Bezug auf das Few-Shot-Learning für die Automatische Inhaltsanalyse der Kommunikationswissenschaft nutzbar zu machen. Das Projekt möchte inhaltliche Kategorien mit vergleichsweise wenig Trainingsdaten zuverlässig identifizieren und die automatische Kodierung von Argumentbestandteilen und -positionen ermöglichen. Hier geht's zum Projekt!

GeoDatRights

Um Menschenrechtsverletzungen in aus Sicherheitsgründen schwer erreichbaren Gebieten besser dokumentieren zu können, analysiert die Friedrich-Alexander-Universität Erlangen-Nürnberg im Projekt GeoDatRights georeferenzierbare Daten aus heterogenen Quellen. Das Projekt zielt darauf ab, anhand einer Studie zur Zerstörung und militärischen Aneignung von zivilen Bildungseinrichtungen in Syrien entsprechende Kompetenzen in der deutschsprachigen Menschenrechtsforschung zu fördern. Hier geht’s zum Projekt!

IMaGENE

IMaGENE will mit KI-Methoden untersuchen, wie sich Veränderungen des Lebensstils auf den Stoffwechsel auswirken und welche individuellen Faktoren dabei eine Rolle spielen. Dazu werden Bilddaten, stoffwechselbezogene Risikoprofile und genetische Daten zu Veränderungen des Fettgewebes analysiert. Das Klinikum rechts der Isar der Technischen Universität München entwickelt Vorhersagemodelle, die personalisierte Empfehlungen für Lebensstiländerungen enthalten. Damit sollen in Zukunft Therapien und Prävention von Adipositas unterstützt werden. Hier geht’s zum Projekt! 

InMeA

Das Verbundprojekt InMeA der Bauhaus-Universität Weimar und der Hochschule Schmalkalden befasst sich mit der Konzeption einer automatisierten Datenanalysemethodik für die Fachgebiete „Structural Health Monitoring“ und „Umweltorientierte Verkehrsplanung“. Das Projekt möchte durch die Analyse von Infrastrukturdaten eine automatische Erfassung und Bewertung von Schäden an Baustrukturen und durch die Analyse von Verkehrs- und Umweltmessdaten eine Vorhersage über Luftqualität in urbanen Lebensräumen ermöglichen. Hier geht’s zum Projekt!

KIKompAg

Im Projekt KIKompAg des Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V. sollen neue Erkenntnisse in der Agrarforschung durch den Einsatz von Methoden der Künstlichen Intelligenz gewonnen werden. Simulationen und Verfahren des maschinellen Lernens sollen dabei (weiter-) entwickelt bzw. adaptiert werden, um mit Hilfe dieser Methoden unterschiedliche Bodenarten und Agrarökosystemen analysieren zu können. Hier geht’s zum Projekt! 

KISync

KISync zielt darauf ab, Methoden der Künstlichen Intelligenz auf klassische Fragestellungen in der Verwaltung von Wertschöpfungsketten anzuwenden. Während diese Problemstellungen in der wissenschaftlichen Literatur und in der praktischen Anwendung vorwiegend separat gelöst werden, zielt das Projekt darauf ab, eine synchrone Lösung der Optimierungsprozesse in der Beschaffung, Produktion und Distribution zu erreichen. Die Koordination des Verbundprojekts obliegt der Otto-von-Guericke-Universität Magdeburg – Projektpartner ist die Universität Mannheim. Hier geht’s zum Projekt! 

KONECO

Das Projekt KONECO der Universität Bayreuth zielt darauf ab, mithilfe von Machine-Learning-Algorithmen der Komplexität von Handelsmärkten Rechnung zu tragen und die Methoden so anzupassen, dass Fragen aus der ökonomischen Forschung zu Handelsmärkten besser beantwortet werden können. Es sollen Determinanten der Mitgliedschaft in Freihandelsabkommen, Netzwerkeigenschaften von Handelsströmen und die Besonderheiten der europäischen Energiemärkte untersucht und in bisher nicht erreichter Tiefe erklärt werden. Hier geht's zum Projekt!

MAGNET4Cardiac7T

Das Projekt MAGNET4Cardiac7T der Universitätsklinik und der Julius-Maximilians-Universität Würzburg zielt darauf ab, die Magnetresonanztomographie (MRT) des Herzens zu erweitern, um sie für diagnostische Zwecke besser nutzen zu können. Um die Vorteile der kardialen Ultrahochfeld-MRT mit Feldstärken von 7 Tesla voll auszuschöpfen, soll ein Verfahren entwickelt werden, das die Gewebeerwärmung durch hohe elektromagnetische Felder patientenspezifisch untersucht. Dazu werden Analysemodelle erstellt und Simulationen durchgeführt, die auf physikalisch basiertem Deep Learning und neuronalen Netzen beruhen. Hier geht’s zum Projekt! 

ML-Strom

Mit dem Projekt ML-Strom untersucht die Hertie School Strommärkte mit neuen statistischen Methoden. Dabei geht es nicht um Daten über Verbraucherinnen und Verbraucher oder den Markt, sondern um Daten über einzelne Kraftwerke, die bisher kaum untersucht wurden. Mit Hilfe maschineller Lernverfahren sollen die technischen und wirtschaftlichen Eigenschaften dieser Kraftwerke und ihre Reaktion auf äußere Einflüsse verstanden werden. Mit diesem Wissen sollen schließlich Modelle für den Strommarkt entwickelt werden, die Marktmacht, technische Möglichkeiten und Handelsdaten berücksichtigen. Hier geht’s zum Projekt!

NEED

Das Verbundprojekt NEED der Rheinisch-Westfälischen Technischen Hochschule Aachen in Zusammenarbeit mit der Helmut-Schmidt-Universität – Universität der Bundeswehr Hamburg soll die derzeitigen, oft zeit- und personalintensiven ingenieurwissenschaftlichen Methoden im Bereich der Modellierung von Produktionsprozessen für Komponenten von Elektrofahrzeugen durch datenbasierte Methoden ersetzen bzw. ergänzen. Hierzu sollen Kompetenzen der Informatik und des Maschinellen Lernens mit bereits vorhandenen Daten arbeiten. Dadurch soll zukünftig weniger manuell modelliert, sondern stärker automatisiert mit vorhandenen Daten gearbeitet werden. Hier geht’s zum Projekt! 

NetPsy

Das Projekt NetPsy der Universität Heidelberg hat das Ziel, Netzwerkmodelle in der Psychopathologie methodisch zu erweitern. Bisher steht etwa die Beschreibung eines explizten Pathologiemodells noch aus und individuelle Symptomprofile werden nicht berücksichtigt. Im Rahmen des Projektes werden Methoden zur Analyse exogener und endogener Vulnerabilität in Psychopathologienetzwerken entwickelt, erweitert und überprüft. Hier geht’s zum Projekt!

OpenLab_KI

Das Projekt OpenLab_KI der Ernst-Abbe-Hochschule Jena zielt darauf ab, für die Analyse von optisch-korrelationstomographischen Bilddaten eine KI-basierte Datenauswertungsmethodik zu entwickeln. Diese soll sowohl für die Analyse von Materialoberflächen als auch für die Untersuchung von Haut- und Netzhauterkrankungen anwendbar sein. Hier geht’s zum Projekt!

OPTI-TRIAL

Das Verbundprojekt OPTI-TRIALS der Universität Bielefeld, dem Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt und dem Helmholtz-Zentrum Hereon will Wege finden, die Zahl der Versuchstiere bei medizinischen Tests zu reduzieren und gleichzeitig mehr Erkenntnisse zu gewinnen. Dazu sollen Verfahren entwickelt werden, die mit weniger Messzeitpunkten auskommen und trotzdem aussagekräftige Daten liefern. In diesem Zusammenhang werden mathematische Modelle, Schätzverfahren und Hypothesentests, wie auch Software und Fortbildungskurse entwickelt. Hier geht’s zum Projekt!

ParKInsonPredict

Der Umfang und die Vielfalt der Daten im Kontext neurologischer Krankheiten stößt an die Grenzen manueller Analyseverfahren und fordert neue automatisierte Analysemethoden. Ziel von ParKInsonPredict ist das Erkennen und Unterscheiden früher klinischer Verlaufsmuster (Progressionstypen) von Parkinsonpatientinnen und –patienten mittels maschinellen Lernens. Dadurch sollen Krankheitsverläufe besser vorhergesagt und früher zielgerichtet therapiert werden. Die Koordination des Verbundprojekts übernimmt die Technische Universität Dresden in Kollaboration mit dem Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen SCAI. Hier geht’s zum Projekt! 

PhysioAI

Das Verbundprojekt PhysioAI der Universität Hamburg und des Universitätsklinikums Hamburg-Eppendorf zielt darauf ab, datenwissenschaftliche Methoden für den Einsatz in der Physiotherapie zu entwickeln und deren Anwendbarkeit zur Behandlungsoptimierung bei Arthrose-Patient:innen zu testen. Es wird analysiert, ob Therapieansätze zu einer Steigerung der physischen Aktivität geführt haben und strebt durch den Einsatz dedizierter KI-getriebener Datenanalysewerkzeuge eine Behandlungsoptimierung an. Hier geht’s zum Projekt! 

PLAGeS

Das Verbundprojekt PLAGeS des Deutschen Zentrum für Luft- und Raumfahrt e.V. und des Helmholtz-Zentrum hereon GmbH zielt darauf ab, Methoden des maschinellen Lernens – insbesondere sogenannte physikinformierte neuronale Netze – anzuwenden, um Simulationen der thermischen und chemischen Entwicklung von terrestrischen Planeten zu beschleunigen. Das soll die Erarbeitung umfassender Modelle erleichtern, die möglichen Entwicklungspfade dieser Körper in Anbetracht der von künstlichen Satelliten gewonnenen Beobachtungsdaten zu beschreiben. Hier geht’s zum Projekt! 

ProData

Ziel des Projekts ProData unter Koordination des RIF Institut für Forschung und Transfer e. V. und in Zusammenarbeit mit der Universität Kassel ist die prozesskettenübergreifende Datennutzung in Spritzgieß- und Montageprozessen. Dadurch sollen Anomalien und die Ableitung von Fehlerursachen besser identifiziert werden können. Hierzu wurde eine reale Prozesskette zwischen Spritzgießanlagen und der Montagestation aufgebaut, deren Maschinen-, Prozess-, Material- und Prüfdaten erstmals prozesskettenübergreifend ausgewertet werden. Hier geht's zum Projekt!

QuantiSlav

Das Verbundprojekt QuantiSlav der Albert-Ludwigs-Universität Freiburg in Zusammenarbeit mit der Bayerischen Akademie der Wissenschaften verfolgt das Ziel einer erstmaligen quantitativen Datierung und Lokalisierung von Texten, deren Entstehung auf die früheste Zeit der slavischen Schriftentwicklung zurückgeht. Dabei soll der wissenschaftliche Nachwuchs am Beispiel dieses für die paläoslavistische Forschung zentralen Problems mit den nötigen Datenkompetenzen ausgestattet und mit den bestehenden Analysetools bekannt gemacht werden. Hier geht’s zum Projekt! 

QuARUm

Im Verbundprojekt QuARUm soll ein Low-Code-Tool entwickelt und erprobt werden, das die automatisierte Beurteilung der Qualität von Mess- und Literaturdaten aus der Geo- und Umweltchemie ermöglicht. Hierdurch wird eine breitere Nutzbarkeit und bessere Vergleichbarkeit großer Datensätze in dem Forschungsfeld ermöglicht. Die Constructor University Bremen gGmbH koordiniert das Projekt und die Technische Universität Dortmund ist Projektpartner. Hier geht's zum Projekt!

RUNIP

Die Ruhr-Universität Bochum untersucht im Projekt RUNIP, wie und in welchem Umfang in christlichen Predigten normativ argumentiert und dafür auf das Recht zurückgegriffen wird. Hierfür verwendet RUNIP einen historischen Predigtkorpus und evangelische Predigten der Gegenwart. Rechtsbezüge sollen anhand von selektiver Kodierung des Materials erschlossen und durch maschinelle Datenanalyse ergänzt werden, um so ein Machine-Learning-Verfahren zur semantischen Analyse des Predigtkorpus zu entwickeln. Hier geht’s zum Projekt! 

SoilCarbonHack

Das Einzelvorhaben SoilCarbonHack der Technischen Universität München zielt darauf ab, neue Erkenntnisse zur CO2-Speicherfähigkeit von Böden zu schaffen. Dabei soll gezeigt werden, inwiefern Funktionen des Kohlenstoffkreislaufs und der Bodenfruchtbarkeit auf kleinster Ebene räumlich differenziert angeordnet sind und konzertiert physikalische, chemische und biologische Prozesse beeinflussen. Hier geht's zum Projekt!

SSTDBB

Datensätze von entschlüsselten Proteinsequenzen von bakteriellen Toxinen bergen das Potential, auf neue Toxine und mögliche Wirkstoffe für zukünftige Medikamente (bzw. auch Antibiotikaalternativen) hinzuweisen. Das Verbundprojekt SSTDBB der Technischen Universität München und der Ludwig-Maximilians-Universität München will mithilfe von KI-Methoden diese potentiell neuen Toxine aus vorhandenen Datensätzen von Proteinsequenzen entschlüsseln. Hier geht’s zum Projekt! 

streamFind

Das Verbundprojekt streamFind des Instituts für Energie- und Umwelttechnik e.V. Duisburg und des FZI Forschungszentrum Informatik Karlsruhe zielt darauf ab, in der Wasseranalytik eine offene, flexible, anpassbare und erweiterbare Softwarelösung für Non-Target-Screening mit der hochauflösenden Massenspektrometrie zu entwickeln. Mit ihr wird der Nachweis und die Identifizierung von Stoffen im Wasser ermöglicht, ohne dass deren Vorhandensein oder ihre Existenz bekannt sein muss. Hier geht’s zum Projekt! 

Studi-BUCH

Das Verbundprojekt Studi-BUCH der RWI - Leibniz-Institut für Wirtschaftsforschung e. V. und der Heinrich-Heine-Universität Düsseldorf soll untersuchen, ob und in welchem Umfang Studienberatungen und Hochschulen auf den technologischen und gesellschaftlichen Wandel reagiert haben und inwiefern eine Anpassung bzw. Neugestaltung von Studiengängen stattfindet. Hierfür werden die seit 1970 jährlich erscheinenden Handreichungen zur „Studien- und Berufswahl“ der Bundesagentur für Arbeit mittels Techniken des Natural Language Processing analysiert. Hier geht's zum Projekt!

WILDER

Der Forschungsverbund Berlin e.V. zielt im Projekt WILDER auf die Entwicklung eines neuen Analyseansatzes der demografischen Resilienz (DR) von Wildtierpopulationen, also deren Fähigkeit, Störungen zu widerstehen und sich davon zu erholen. Hierdurch soll erstmals eine dynamische Betrachtung ermöglicht werden, um beispielsweise Veränderungen des Tourismus auf Wildtierpopulationen wie die der Tüpfelhyänen zu untersuchen. Hier geht's zum Projekt!