Gibt es Wege, Wasser mit Licht zu spalten, die nicht die natürliche Photosynthese zum Vorbild haben? Jacob Schneidewind ist ihnen auf der Spur: Er entwickelt Photokatalysatoren dafür.
Grüner Wasserstoff hat das Potenzial, eine Schlüsselroll...
Von Wiley-VCH zur Verfügung gestellt
Über neue Techniken in der Elementanalytik, neue Isotope für die Spurensuche in der forensischen Umweltanalytik und in der Archäometrie, Miniaturisierung in Chromatographie und Elektroanalytik, Biosensoren für die Point-of-Care-Diagnostik, spektroskopische Methoden in der Prozessanalytik, Digitalisierung und Analyse von Kunststoffen in der chemischen Industrie, neue Methoden in der Chemometrie sowie über Strukturanalyse mit Elektronen und Quantenkristallographie.
In der Elementanalytik sind Trends in vier Bereichen erkennbar: Nichtmetallanalytik, Stabilisotopenanalytik, Elemental Imaging sowie Einzelpartikel- und -zellenanalytik. Bei Nichtmetallanalytik und Stabilisotopenanalytik haben sich eher die Anwendungen entwickelt; bei Elemental Imaging und der Einzelpartikel- und -zellenanalytik gibt es mehr technische Entwicklungen. Im Folgenden einige Highlights.
Die Nichtmetallanalytik fokussiert sich gerade auf das Element Fluor. Per- und Polyfluorierte Verbindungen (PFAS) sind emerging pollutants in der Umweltanalytik. Aufgrund der Menge der Verbindungen – es sind über 6000 – ist eine Target-Analytik schwierig. Summenparametermethoden entwickeln sich daher immer mehr zur Methode der Wahl. Hier hat sich in den letzten Jahren die Hochauflösende-Kontinuumstrahler-Molekülabsorptionsspektrometrie mit Graphitrohrtechnik (HR-CS-GFMAS) etabliert (
Wie Gehrenkemper und Team zeigen, ist die HR-CS-GFMAS bei der Analytik von PFAS etwa acht Mal schneller sowie empfindlicher und präziser als die Combustion-Ionenchromatographie (CIC), die bisher Standard war.1) Neben der Analytik von Oberflächenwasser eignet sich die Methode für weitere Umweltproben sowie beispielsweise für Kraftstoffe.2,3) Die Zahl der Publikationen über PFAS-Summenparameteranalytik steigt – dies unterstreicht den Bedarf nach Forschung und gesetzlichen Regelungen.
In der Analytik von stabilen Isotopen sind die induktiv gekoppelte Plasma- und Thermionen-Massenspektrometrie (ICP-MS, TIMS) die Methoden der Wahl. Bei Multikollektor-ICP-MS-Systemen ist ein Trend zur Kollisions-/Reaktionszelle zu beobachten,4,5) wobei ein Dual-Path-Design zum Einsatz kommt, das mit und ohne Kollisionszelle optimale Performance verspricht.
Durch die Kombination von Trennsystemen mit MC-ICP-MS sind die Isotopeninformationen aus den Analysenergebnissen speziesspezifisch, und die Informationsfülle ist größer. Faßbender und Team nutzen die CE/MC-ICP-MS zur Schwefelspeziierung in Oberflächenwasser. Dies könnte wichtig bei der Verfolgung von Schadstoffkontaminationen werden.6)
Darüber hinaus werden Isotopenanalysen in der Medizin wichtiger. Damit lassen sich beispielsweise gesunde von erkrankten Individuen unterscheiden und Informationen über Metabolismen und Biomarker gewinnen.7,8)
Die Kombination von Laserablation (LA) mit ICP-MS ist für die direkte Feststoffanalyse unterschiedlichster Materialien seit langem etabliert. Dennoch gibt es immer wieder Verbesserungen, die den Anwendungsbereich erweitern. Wie Neff und Team gezeigt haben, beseitigt eine mikrowellenunterstützte, induktiv gekoppelte Atmosphärendruck-Plasmaquelle mit Stickstoff als Plasmagas (N2-ICP) anstelle eines Argon-ICP nicht nur die Störungen durch Argon. Sondern damit sind auch gleiche oder bessere Nachweisgrenzen für Elementspuren in Glas erreichbar.9) Stickstoff als Plasmagas ist zudem preisgünstiger als Argon.
Weiterentwicklungen bei den Laserablationssystemen, insbesondere beim Aerosolauswaschverhalten der Probenkammer und beim Aerosoltransport zum ICP,10) machen den Weg frei für schnelle zwei- und dreidimensionale Bildgebung. Das von Meng und Team entwickelte Gerät erreicht eine Ortsauflösung bis hinunter auf 400 nm.11) Damit kann es einzelne Zellorganellen abbilden.
Bei Kopplung eines leistungsfähigen LA-Systems an ein ICP-Flugzeitmassenspektrometer (ICP-ToF-MS) lässt sich das gesamte Massenspektrum für jeden einzelnen Laserspot (quasi-)simultan erfassen. Dies ermöglicht beispielsweise die quantitative Elementanalyse von mehreren hundert Zellen innerhalb von Minuten12) für Studien zur Aufnahme von metallhaltigen Pharmazeutika oder Nanomaterialien.
Single-particle- und Single-cell-Analytik entwickelt sich hin zu komplexeren Systemen und einer stärkeren Überlappung der Applikationsfelder. Um den komplexen Anwendungen gerecht zu werden, dienen zur Datenauswertung verstärkt Machine-Learning-Ansätze und statistische Auswertetools.
In einem aktuellen Beispiel zeigen Mehrabi und Team die Analyse von Multielement-Nanopartikeln (mmNP) in Umweltmatrizes. Mit einem Single-particle-ICP-ToF-MS kombiniert mit Machine Learning haben sie das Umweltverhalten künstlicher NP in komplexer Matrix, einem Kläranlagen-Zu- und -Ablauf, untersucht.13)
Die Gruppe von Vonderach und Günther hat ein vertikales ICP-ToF-MS entwickelt und mit einem Microdroplet-Generator (MDG) kombiniert (
Fabian Simon, Lennart Gehrenkemper, Marcus von der Au, Heike Traub, Jochen Vogl, Björn Meermann,
Bundesanstalt für Materialforschung und -prüfung, BAM, Berlin
Wer die weltweite Publikationstätigkeit aus der Umweltradioaktivität in den vergangenen Jahren verfolgt hat, mag den Eindruck gewinnen, die Community trete auf der Stelle. Es ging vor allem um (natürliche) Radionuklide in Boden, Wasser, Lebensmitteln und Baustoffen. Wenn die Targetnuklide solcher Studien Radium, Thorium und Kalium-40 sind, liegt der Verdacht nahe: Die Autoren hatten ein Gammaspektrometer im Keller, mit dem sie einfach alles durchmessen. Berechnen sie dann aus Kleinstaktivitäten ein „excess cancer risk“ und einen Verlust an Lebensjahren, mag das arithmetischen Regeln folgen, der Realitätsbezug fehlt jedoch.
Es geht auch anders: Radionuklide sind wunderbare Tracer, die einen Einblick in Prozesse der Umwelt vermitteln. Wer verstehen möchte, wie die makroskopische Welt auf atomarer oder molekularer Ebene funktioniert, kann sich Radionukliden bedienen. So verraten sie aufgrund ihrer Strahlung oder ihres isotopischen Fingerabdrucks etwa den Ursprung einer Kontamination. Diese Spurensuche hat eine forensische Komponente – nur, dass im Umweltbereich oftmals kein Verbrecher überführt, sondern ein Umweltprozess mit oder ohne anthropogenen Anteil aufgeklärt werden soll.
Viele Umweltanwendungen mit konventionellen Radionukliden wie 137Cs sind gut etabliert. Neues Potenzial bieten bislang vernachlässigte, schwer zu messende Radionuklide. Dazu zählt das langlebige Spaltprodukt Cäsium-135 (T1/2 = 2 Mio. Jahre). Wie Zheng und Team bereits im Jahr 2014 gezeigt haben, ist das Verhältnis 135Cs/137Cs für jeden einzelnen der vier zerstörten Reaktoren des Kernkraftwerks Fukushima Daiichi charakteristisch. Über diesen Fingerabdruck lässt sich eine Kontamination dem jeweils verursachenden Reaktor zuordnen.15)
Da Radiocäsium eine allgegenwärtige Kontaminante ist, empfiehlt sich dieser analytische Ansatz, um die Radiocäsiumemissionen aus Tschernobyl, Fukushima und Atomwaffenfallout zu unterscheiden.16)
Die radikalste Steigerung einer Radioisotopenstudie ist es, auf Radionuklide zu verzichten. Geo- und Lebenswissenschaften nutzen stabile Isotope seit Jahrzehnten, doch das Potenzial dieses Konzepts ist noch lange nicht ausgeschöpft.
Vor wenigen Jahren geriet Kalium in den Fokus der Umweltforschung, nachdem gezeigt wurde, dass sich das Verhältnis der stabilen Isotope 41K/39K je nach Quelle – Meerwasser, Erdmantel, Pflanzen – geringfügig unterscheidet. Es lässt sich mit MC-ICP-MS bestimmen, zuvor haben Morgan und Team das Problem der Interferenzen durch Argon aus dem Plasma beseitigt.17) Dieses Thema hat noch mehr Anwendungspotenzial. Mit 41K/39K lassen sich beispielsweise Erosionsprozesse quantitativ verfolgen.18)
Eine Anwendung dieses Fingerabdrucks zielt darauf, anthropogenen Düngereintrag zu quantifizieren. Da Kalidünger meist aus ehemals marinen Salzstöcken (Sylvin, Abraumsalze) gewonnen werden, ist der menschengemachte Eintrag dieser Düngemittel isotopisch nachweisbar (
Eine brisante Geschichte war die Freisetzung von 106Ru im Jahr 2017. Auch hier halfen stabile Isotope, und zwar Rutheniumisotope aus der Kernspaltung, den Fall zu lösen. Wie die Untersuchung eines Luftfilters ergab, stimmten die darin festgehaltenen stabilen Ru-Isotope mit dem Isotopenmuster im abgebrannten Brennstoff eines russischen WWER-Reaktors überein.20,21) Durch dieses Indiz geriet die russische Nuklearanlage Majak in den Blick, die abgebrannte Brennelemente dieses Typ wiederaufarbeitet.
Georg Steinhauser,
Universität Hannover und TU Wien
Der Einsatz der Isotopenanalytik nimmt in der Archäometrie stark zu (
Neben den leichten Isotopen (H, C, O, N, S) gelten manche schweren Isotope (Sr, Pb, Nd, Os, Hf) als traditionelle Systeme – auch wenn die Archäometrie sie teilweise erst seit Kurzem nutzt, Hafnium beispielsweise seit dem Jahr 2020. Denn in der Geochemie wurden diese Isotopensysteme bereits umfassend charakterisiert. Der radiogene Eintrag dieser schweren Isotope führt zu einer geographischen Variation, die dazu dient, die Herkunft der Rohstoffe in Metallobjekten inklusive Gold, Glas, Keramik und Pigmenten sowie die Mobilität von Menschen und Tieren zu ermitteln.22,23) In der Interpretation der Daten sind die Isotopensignatur möglicher Herkunftsorte24) und Prozesse zu berücksichtigen, die die Isotopie verändern, zum Beispiel Diagenese, also die kumulative physikalische, chemische und biologische Veränderung des Knochen- oder Zahnmaterials nach der Niederlegung,25) Metabolismus oder Herstellungsprozess. So zeigten Sr-Isotope, dass die auf dem Friedhof auf der Insel Sai (Nubien) beerdigten Individuen der ägyptischen Elite angehörten (erkennbar an den reichen Grabbeigaben,
In einer kürzlich erschienenen Studie haben die Autoren zum ersten Mal Hf-Isotope genutzt, um die Herkunft archäologischer Objekte zu bestimmen. Damit ließ sich in Ägypten hergestelltes (alexandrinisches) Glas von solchem Glas unterscheiden, das in der Levante hergestellt worden war. Sr- und Nd-Isotope hatten dazu nicht gereicht.27)
Aus archäologischer Sicht sollte die Isotopenanalytik idealerweise zerstörungsfrei sein und bevorzugt vor Ort stattfinden. Das gelingt bisher nicht. Laserabtragung (LA) ist aktuell die am wenigsten invasive Methode, um Proben zu nehmen. Spuren der LA sind mit bloßem Auge nicht von natürlichen Oberflächenfehlern zu unterscheiden. Durch Kopplung mit einem Multikollektor-Massenspektrometer mit induktiv gekoppeltem Plasma (MC-ICP-MS) lassen sich so In-situ-Isotopenanalysen durchführen, die jedoch nicht so genau sind wie klassische Thermoionenmassenspektrometrie (TIMS) oder MC-ICP-MS-Methoden.
Eine aktuelle Studie ging hier noch einen Schritt weiter und setzte ein tragbares LA-System als indirekten Filter ein, um Silberobjekte beliebiger Größe im Museum zu beproben und anschließend im Labor mit klassischen Methoden die Pb-Isotope und damit die Herkunft zu bestimmen.28)
In den letzten Jahren wurden weitere stabile Isotope archäometrisch untersucht (Abbildung 4), darunter B, Si, Fe, Cu, Zn, Ag, Sn, Sb, Hg, besonders im Hinblick auf die Herkunftsbestimmung von Artefakten. Abgesehen von B, Sn und Ag eignet sich die Isotopenfraktionierung der meisten dieser Systeme jedoch weniger zur Herkunftsbestimmung als vielmehr dazu, Einblicke in Herstellungsprozesse archäologischer Objekte und die Ernährung und den Stoffwechsel von Individuen zu gewinnen.22,29)
Eine aktuelle Studie unterschied anhand von Ag- und Cu-Isotopen zwischen mit historischen Verfahren raffiniertem Gold und natürlichen Goldvorkommen. Dies weist beispielsweise auf die Verarbeitung von Feingold (Schaukelring, Dürrnberg – 320 bis 250 v. Chr.) nördlich der Alpen während der Eisenzeit hin.30)
In jüngsten Studien wurde die Ernährung aus Kollagen (C-, N-Isotope) rekonstruiert und durch Zn-Isotopen verfeinert. Wenn kein Kollagen mehr vorhanden ist, ermöglicht die Kombination von Ca-, Mg- oder Zn- mit C-Isotopen aus Zahnschmelz Rückschlüsse auf die Ernährung.31)
Anika Retzmann,
Bundesanstalt für Materialforschung und -prüfung, Berlin
Bei den chipbasierten Trenntechniken lässt sich mit der Ionenmobilitätsspektrometrie (IMS) eine weitere Trenndimension einbringen, die zusätzlich durch die Massenspektrometrie (MS) zur IM-MS gekoppelt werden kann. So beschreiben Belder und Mitarbeiter die erste Online-Kopplung der Chip-Elektrochromatographie mit der IMS und zeigen die Trennung auch anspruchsvoller Gemische in kurzer Zeit.32)
Die Gruppe um Wang zeigt die Kombination eines inertialen, also nicht allein von der Viskosität dominierten, mikrofluidischen Chips in Kombination mit der IM-MS zur Untersuchung des metabolischen Profils von Krebszelllinien.33)
Dass auf einem Chip weitere methodische Kombinationen möglich sind, zeigen Piendl und Kollegen bei der Entwicklung eines mikrofluidischen segmentierten Flusssystems, das an eine Chip-HPLC gekoppelt ist. Hiermit lassen sich aus Einzeltropfen Volumina von 10 nL auf die Säule transferieren und damit Reaktionen auf der Nanoliterskala verfolgen (
Die Kopplung aus der LC und der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) ist anders als LC/ESI-MS noch keine Standardkombination im Labor. Die LC-ICP-MS findet aber zunehmende Verbreitung, wenn Spezies von Heteroelementen quantifiziert werden sollen. Die potenzielle Anwendung in der Dopinganalytik zeigen Thevis und Mitarbeiter in einer Studie zur Cobaltaufnahme nach Supplementierung von Probanden mit Cobaltverbindungen.35)
Den Vergleich verschiedener Kalibrierstrategien unter Gradientenbedingungen in der LC/ICP-MS diskutiert die Gruppe um Gammelgaard bei der Quantifizierung von Oxytocin und seines Selenanalogons in Humanplasmaproben. Die Nachsäulenzugabe isotopenangereicherter Standards kann hier gradienten- und plasmabedingte Einflüsse kompensieren. Dadurch verbessern sich Nachweis- und Bestimmungsgrenzen.36)
Karst und Mitarbeiter nutzen die Kombination aus einer LC-Trennung auf einer Hilic-Phase (hydrophilic interaction liquid chromatography) und der ICP-MS, um Gd-Spezies aus Kontrastmitteln in Knochen- und Knochenmarksproben von Ratten empfindlich zu analysieren. Damit haben sie das Verteilungsverhalten genauer bestimmt und quantifiziert.37)
Eine neuartiges Nanoflow-Sheath-Liquid-Interface für die einfache und robuste Kopplung der Kapillarelektrophorese mit der Massenspektrometrie (CE-MS) entwickelt die Gruppe um Neusüß. Das von seinen Entwicklern nanoCEasy genannte Interface besteht aus Bauteilen, die mit einem 3-D-Drucker kostengünstig angefertigt werden können. Es erlaubt, Kapillaren und Emitter einfach und schnell einzubetten.38)
Eine Verbesserung der kapazitiv gekoppelten kontaktlosen Leitfähigkeitsdetektion (C4D) für die CE zeigen Huhn und Mitarbeiter mit der Entwicklung eines Capacitance-to-digital-conversion(CDC)-basierten C4D. Die vorgestellte Detektionseinheit zeichnet sich durch ein geringes Gesamtgewicht sowie einen kleinen Detektorkopf aus. Der Detektorkopf wiegt nur knapp 3 g, der gesamte Aufbau inklusive Batterie weniger als 200 g.
Zudem können entweder mehrere Detektoren entlang einer Trennkapillare platziert werden, um das Verhalten während der Trennung zu beobachten, oder ein Detektorkopf lässt sich variabel an der Kapillare verschieben.39)
Diese wenigen, aber eindrucksvollen Entwicklungen zeigen, wie dynamisch sich die Trenntechniken entwickeln – sie zeigen jedoch nur wenige Teile aus einem großen Instrumenten- und Methodenspektrum.
Martin Vogel,
Universität Münster
Die Miniaturisierung elektrochemischer Messkomponenten spielt eine wesentliche Rolle für die Untersuchung biologischer Systeme. Voltammetrische Elektroden mit Nanometer-Abmessungen der aktiven Elektrodenmaterialien ermöglichen analytische Untersuchungen in einzelnen Zellen oder Zellorganellen. Schwerpunkt der letzten Jahre waren Bestimmungen reaktiver Sauerstoff- und Stickstoffspezies, um physiologische Prozesse zu untersuchen.40)
Auch bei der Messtechnik hat sich der Trend der Miniaturisierung fortgesetzt. Die für voltammetrische Messungen verwendeten Potenziostaten sind immer weiter geschrumpft, ohne dabei signifikant an Leistungsfähigkeit zu verlieren. Seit kurzem ist ein Potenziostatenwinzling erhältlich, der sich in Verbindung mit einem Smartphone betreiben lässt
Der 3-D-Druck, auch additive Fertigung genannt, dient dazu, immer vielfältigere Elektrodensysteme oder komplette elektrochemische Zellkonfigurationen zu entwickeln und herzustellen. Banks und Mitarbeiter41) haben erstmals eine 3-D-gedruckte elektroanalytische Sensorplattform realisiert, die alle Komponenten einer elektrochemischen Zelle einschließlich Arbeits-, Referenz- und Gegenelektrode integriert.
Pumera und Mitarbeiter42) haben biologische Komponenten in den 3-D-Druckprozess einbezogen. So druckten sie eine Bioelektrode für Glucosebestimmungen. Während die Mehrzahl der 3-D-gedruckten Elektrodenstrukturen aus Kohlenstoffmaterialien hergestellt wird, spielen zunehmend gedruckte metallische Elektroden für Sensoren eine Rolle.43)
Die Flexibilität elektroanalytischer Methoden und die Miniaturisierung elektrochemischer Messsysteme erleichtern die Kopplung mit anderen instrumentellen Analyseverfahren. Dabei liefern die gekoppelten Methoden komplementäre analytische Informationen. Ein Beispiel ist die Kombination der oberflächenverstärkten Raman-Spektroskopie (Sers) mit elektrochemischen Messungen.44) Diese Methodenkopplung eröffnet neue Anwendungen in der Vor-Ort-Analytik für Qualitätskontrolle oder klinische Diagnostik.
Frank-Michael Matysik, Universität Regensburg
Krebsdiagnostik nutzt heute nicht nur neue Biomarker, sondern auch ihre unterschiedlichen Konzentrationsprofile. Die Bedeutung von MicroRNAs (miRNAs) als Krebsmarker wurde bereits im Jahr 2008 erkannt. Sie bestehen aus etwa 22 im Erbgut kodierten Nukleotiden und blockieren Genaktivitäten, indem sie sich an Bereiche von Boten-RNA (mRNA) anlagern.
MicroRNAs können durch Flüssigbiopsien aus Blut, Urin und anderen Körperflüssigkeiten extrahiert werden und dienen als Multimarkermodelle für Diagnose, Behandlung und Bewertung des Therapieerfolgs.45) Dafür wurden in konventioneller Laboranalytik Hochdurchsatz und spezifische Methoden auf der Basis von Microarrays und PCR-Techniken etabliert.
In den letzten Jahren hat sich das Gebiet der Nukleinsäure-basierenden Biosensoren so weiterentwickelt, dass miRNAs auch im Point-of-Care(POC)-Bereich markierungsfrei detektiert werden können. Die Bandbreite an Ausleseverfahren reicht von elektrochemischen zu optischen bis zu elektromechanischen Prinzipien (
Wie in vielen POC-Biosensoren sind elektrochemische Techniken besonders interessant, da sie die Empfindlichkeit und Tragbarkeit der elektroanalytischen Methodik mit der Selektivität biologischer Nachweiselemente vereinen.47) Elektroanalytische miRNA-Sensoren sind sehr empfindlich, selektiv und spezifisch.47,48)
Für diese Sensoren werden vor allem Nanomaterialien eingesetzt, die zu einer besseren Immobilisierung der Nukleinsäure und einer geringeren unspezifischen Bindung führen. Auch der Ladungstransfer wird durch sie oft vereinfacht. Häufig verwendete Nanomaterialien sind Metallnanopartikel, metallorganische Gerüstverbindungen (MOFs), 2-D-Metallcarbide und Nitride (MXene) und kohlenstoffbasierte Materialien wie Kohlenstoffnanoröhren, Graphenoxid oder Kohlenstoffkugeln.49)
Die Kombination von multidimensionalen Nanomaterialien und neuartigen Nanokompositen mit den gewünschten Eigenschaften verbessern die Sensorleistung für den miRNA-Nachweis.50,51) Letztlich bietet die Integration derartiger multifunktionaler Nanostrukturen in eine papierbasierte Sensorplattform eine kostengünstige, umweltfreundliche und einfache Plattform für die Krebsdiagnose.52,53)
Trotz der Erfolge in biosensorischen Einzelnachweisen von miRNAs ist ihr Potenzial als Sensoren noch nicht ausgeschöpft. So gibt es bisher nur wenige Berichte über Biosensor-Arrays, die krankheitsspezifische miRNA-Muster parallel nachweisen. Ein solcher Nachweis in Point-of-Care-Geräten sollte künftig frühe und einfache Diagnose von Krebserkrankungen ermöglichen.
Parvaneh Rahimi, Sedigheh Falahi, Yvonne Joseph, TU Bergakademie Freiberg
Digitalisierung bleibt ein Trend bei den prozessanalytischen Techniken. Real-Time-Release-Anstrengungen (Produktfreigabe in Echtzeit) treiben die Entwicklung spektroskopischer Methoden und computergestützter Modellierung. Schwingungsspektroskopie profitiert von Micro Electro Mechanical Systems (MEMS), Miniaturisierung, photonischen integrierten Schaltkreisen (PICs) und 3-D-Druck. Photothermisches Imaging ist sehr empfindlich und erlaubt eine laterale Auflösung über dem Beugungslimit.
Künstliche Intelligenz (KI) verbreitet sich weiterhin in der Prozessanalytik. Die dominierenden Teilgebiete sind Bildverarbeitung, Zeitreihenanalyse sequenzieller Daten, automatisierte Auswertung spektraler Daten und Einbeziehung von Vitaldaten. KI beschleunigt zudem die Entwicklung von Auswertemethoden, sodass sich vermehrt komplexe Daten aus Bildanalyse und Spektroskopie, Multispektraldaten, generieren und interpretieren lassen. Oberflächenqualitäten können über die Verrechnung ultraschneller, laserbasierter MIR-Scanner mit multimodalen Vis-Bildern und Ramanscanning abgemustert werden.54,55) Die Entwicklung bei KI-Anwendungen verlagert sich zu Pre-, Postprocessing und Bereitstellen optimaler Messumgebungen. Schneller werdende GPU-Prozessoren, Edge Computing und direkte Cloudanbindung steigern die Leistung. Millionenfach hergestellte Elektronikgeräte wie Webcams ersetzen zukünftig die spezifische Messelektronik.
Digitale Zwillinge als virtuelle Prozess-Replika können den Prozesslebenszyklus und die Lieferkettenoptimierung beschleunigen, besonders in einer Kreislaufwirtschaft und bei kontinuierlichen Prozessen.56) Die Qualität von Eingangsmaterial und Qualitätsattribute in Intermediatströmen lassen sich mit spektroskopischen Methoden bestimmen oder mit Unbestimmtheitsmodellierung in digitalen Zwillingen schätzen.57) Insbesondere für Bioprozesse eignen sich digitale Zwillinge, die die Qualität per Korrelation zu Eingangsparametern abschätzen, sodass weniger Komponenten gemessen werden müssen. Ebenso werden in Zukunft verstärkt gekoppelte, integrierte Prozessmodelle eingesetzt, um Real Time Release des Endprodukts vorherzusagen.58)
Thematisiert werden Lebenszyklen digitaler Zwillinge, automatisierte Workflows zu ihrer Adaptierung und ihre Übertragbarkeit durch Transfer-Learning-Strategien. Traditionelle Prozessanalysentechnik wird künftig mit digitalen Zwillingen kombiniert.
Kompakte Nahinfrarot(NIR)-Spektrometermodule auf Basis von MEMS-Technik werden vermehrt zur Wareneingangskontrolle, Prozessüberwachung und schnellem Produktscreening eingesetzt.59) Durch multivariate Datenanalyse ist eine ähnliche Performance wie bei konventionellen Benchtop-Systemen zu erzielen.
Der nächste Miniaturisierungsschritt liegt in photonischen integrierten Schaltkreisen (PIC), wie sie aus der Telekommunikationstechnik bekannt sind. Sie werden aufgrund neuartiger Materialien, die mit Freiformoptiken oder Wellenleitern aus dem 3-D-Drucker miteinander verbunden werden, für spektroskopische Anwendungen interessant.60,61) Hier ist eine Analogie zu elektronischen integrierten Schaltkreisen erkennbar – und möglicherweise ein technischer Umbruch.
MIR-Quantenkaskadenlaser ermöglichen neue Messkonzepte durch ihre Durchstimmbarkeit, ihre spektrale Leistungsdichte sowie ihre rasche Amplituden- und Frequenzmodulation. Diese photothermischen Verfahren basieren auf einer periodischen Anregung der Probe, somit auf einer periodischen Erwärmung
Bei bildgebenden Verfahren dehnt sich bei gepulster Anregung die Probe periodisch, und ihr Brechungsindex ändert sich. Ein Rasterkraftmikroskop und Pulsdauern von 50 bis 300 Nanosekunden erreichen Auflösungen von 10 bis 20 nm.62,63) Die modulierte Anregung auszulesen ist auch mit einem Laser mit sichtbarem Licht bei Auflösungen von 300 nm möglich. Hier sehen wir Anwendungen für die Prozessanalytik.
Michael Deilmann, Krohne Messtechnik; Christoph Herwig, TU Wien; Martin Jäger, Hochschule Niederrhein; Robin Legner, KWS SAAT; Bernhard Lendl, TU Wien; Matthias Rädle, Hochschule Mannheim
Die Chemische Industrie befindet sich aktuell in einer vierfachen Transformation. Getrieben wird diese durch den Wandel zu einer klimaneutralen Produktion, die Digitalisierung aller Geschäfts- und Produktionsprozesse, den Aufbau einer Kreislaufwirtschaft und durch die neuen Rahmenbedingungen der EU-Chemikalienstrategie.64)
Die analytische Chemie treibt diesen Transformationsprozess beharrlich an. Die sich beschleunigende digitale Transformation der Chemie rückt die analytische Chemie als Quelle von Daten, Information und Wissen in den Mittelpunkt industrieller Innovationsprozesse und der Prozessinnovation.65,66) Veränderungen auf gesellschaftlicher und politischer Ebene verstärken diesen Effekt.
Geleitet vom Ziel einer nachhaltigen Kreislaufwirtschaft hat die Europäische Kommission im Jahr 2020 die „EU-Chemikalienstrategie für Nachhaltigkeit“ (CSS – Chemicals Strategy for Sustainability) und 2021 den „EU-Aktionsplan zur Schadstofffreiheit von Luft, Wasser und Boden“ verabschiedet67) – beides Teile des europäischen Green Deals. Nach der CSS-Strategie soll sich die EU-Industrie bei Herstellung und Verwendung sicherer und nachhaltiger Chemikalien zu einem globalen Spitzenreiter entwickeln. Ein Aktionsplan sieht Etappenziele bis 2030 vor, insbesondere Verbesserung der Luft-, Wasser- und Bodenqualität. Vermeidung von Kunststoffabfällen und Mikroplastik in der Umwelt sind hier erstmals Themen.
Genaue Definition, Charakterisierung und Quantifizierung im Spurenbereich von Mikroplastik in Umweltmatrices (Wasser, Boden, Luft) sind weiterhin Herausforderungen an die methodische Weiterentwicklung bei Probennahme, Probenvorbereitung und Endbestimmung. Neben hochauflösenden SEM- als Referenzmethoden68) speziell im Submikrobereich wird verstärkt Ramanmikroskopie69) angewendet, um Spuren von Kunststoffpartikeln zu identifizieren und Proben aufzubereiten.70)
Für die Spurenanalytik polymerer Materialien, die mit Metalltracern versetzt sind, etablieren sich neben elektronenmikroskopischen Methoden die Pyrolyse-GC/MS-Kopplung sowie die ICP-OES und ICP-MS-Methoden. Es bleibt eine Herausforderung, hochdurchsatzfähige Methoden zu entwickeln, die Spuren von Mikroplastik nach minimaler Probenvorbereitung identifizieren und quantifizieren.
Polymere werden aufgrund ihrer Zusammensetzung und Struktur unter Reach bisher gesondert betrachtet; die meisten sind gemäß Artikel 2 Absatz 9 von Registrierung und Bewertung bis dato ausgenommen. Die EU-Kommission überprüft zurzeit diese Regelungen. Ein zentraler Punkt ist dabei Einführung einer Registrierungspflicht für bestimmte Polymere. Die Unterscheidung in Gruppen, die eine Registrierung verlangen (PRR – polymers requiring registration) oder ausgenommen sind (PLC – polymers of low concern), erfordert umfangreiche Untersuchungen, da Polymerprodukte keine Reinstoffe sind, sondern Gemische mit sehr unterschiedlichen Molmassenverteilungen, Monomerzusammensetzungen, Taktizität, Modifikationen von Endgruppen, Vernetzungsgraden und mehr. Darüber hinaus werden Eigenschaften moderner Hochleistungspolymere durch Additive und Modifier anwendungsspezifisch maßgeschneidert, die Produkte auf die Abwesenheit an Spuren von Restmonomeren, Crosslinkern, Katalysatoren oder Lösemitteln geprüft.
Polymermaterialien zu charakterisieren, fordert das gesamte Repertoire an Trenn- und Kopplungstechniken, Spektroskopie und Elementanalytik. Alle registrierungsrelevanten physikochemischen Parameter werden über OECD-Methoden ermittelt, die fast ausschließlich für Reinstoffe entwickelt wurden und nicht sinnvoll auf Polymere anwendbar sind, zum Beispiel die Bestimmung der Wasserlöslichkeit (OECD TG105).71)
Eine weitere Herausforderung für die akademische wie für die industrielle Forschung in der analytischen Chemie ist es, schnelle und automatisierbare Methoden zu entwickeln, die Informationen über Stoffzusammensetzungen und Eigenschaften von Polymersystemen liefern. Hier werden EU-Förderprogramme wie Horizon Europe72) die Kooperation von Hochschulen, Geräteherstellern, Forschungsinstituten und der chemischen Industrie katalysieren.
Ein weiteres Ziel des Green Deals der EU ist der Aufbau einer Kreislaufwirtschaft (Circular Economy), die auf eine stoffliche Wiederverwertung von Materialien setzt. Neben biobasierten Rohstoffen zur Herstellung bioabbaubarer Produkte sind mechanisches Recycling von Reinstoffen und chemisches Recycling durch Spaltung oder chemische Umwandlung (zum Beispiel Chemcycling,
Mechanisches Recycling erfordert Sammeln und Transport von Abfallstoffen sowie spezifische Echtzeit-Charakterisierungsmethoden, um die Materialien sortenrein zu trennen. Zudem sind Spuren halogenierter Verunreinigungen und von Katalysatorresten schnell zu analysieren sowie die gefärbten, insbesondere schwarzen Kunststoffpartikel online zu charakterisieren.
Chemisches Recycling/Chemcycling konzentriert sich auf Kunststoffabfälle, die aus technischen, ökonomischen oder ökologischen Gründen nicht mechanisch recycelt werden können. Beispiele sind verunreinigte Kunststoffe, Abfallfraktionen verschiedener Kunststoffarten, die nicht sortiert werden, oder Altreifen, die nicht anderweitig recycelt werden. Kunststoffabfälle werden dabei in ihre chemischen Bausteine gespalten und zu Grundstoffen der chemischen Industrie wie Pyrolyseöle (als Naphta-Ersatz) oder als Gas weiterverarbeitet.
An jedem Haltepunkt stofflicher Umwandlung für diese Kreislaufwirtschaft ist durch Qualitätskontrollen der Stoffströme eine Störung des Produktionsprozesses durch verschleppte Verunreinigungen unbedingt zu vermeiden. Dazu notwendige, hochdurchsatzfähige und selektive Analytikmethoden, die eine Steuerung dieser Umwandlungsprozesse erlauben, werden aktuell entwickelt.
Die durchgängige Digitalisierung (
Das Industrieforum Analytik der Fachgruppe Analytische Chemie in der GDCh unterstützt die Schaffung eines offenen, herstellerunabhängigen Kommunikationsstandards für Laborgeräte. Dieser Standard soll langfristig anwendbar sein und auch künftigen Anforderungen der Digitalisierung und Automatisierung im Labor gerecht werden. Daher hat sich das Forum entschlossen, die Laboratory-and-Analytical-DeviceStandard(LADS)-Initiative des Laborgeräteherstellerverbands Spectaris, des Verbands Deutscher Maschinen- und Anlagenbau (VDMA) und der Open-Platform- Communications(OPC)-Foundation zu unterstützen.73)
Besondere Aufmerksamkeit verdienen neue Ansätze zur Non-Target- und Spurenanalytik in (Ab-)Wässern, physiologischen Medien (Blut, Plasma, Urin) oder Fermentationsproben. Eine methodische Innovation in der Strukturaufklärung komplexer Gemische ist die MRR-Spektroskopie (molecular rotational resonance spectroscopy), mit der sich Enantiomere, Diastereomere und Verunreinigungen in flüchtigen Gemischen bestimmen lassen und die komplementäre Strukturinformationen zu IR, MS und NMR liefert.74)
Joachim Richert,
BASF, Ludwigshafen
Noch in der zurückliegenden Dekade haben methodische Entwicklungen der Chemometrik Verfahren der analytischen Chemie angetrieben. Nun erfordern neue Analysemethoden eine Anpassung oder Entwicklung von Methoden zur Datenanalyse. Diese Art Trendumkehr spiegelt sich in aktuellen wissenschaftlichen Aufsätzen wider und hat sich in den zurückliegenden Monaten manifestiert.
Das Publikationsspektrum des letzten Jahres zeigt 2079 Arbeiten mit Bezug zur Chemometrik, so viele wie nie zuvor in einem Jahr. Dabei entfiel etwa ein Drittel der Arbeiten auf die Kombination mit spektroskopischen Techniken, gefolgt von der Kombination mit Chromatographie und Massenspektrometrie (
Bei methodischen Trends in der Chemometrik fallen zunächst neue Entwicklungen in der Datenvorbehandlung auf. Eine Datenvorbehandlung beeinflusst maßgeblich das Ergebnis der chemometrischen Auswertung, daher hat dieser Bearbeitungsschritt an Aufmerksamkeit gewonnen. Das Stadium der Basislinienkorrektur oder Normierung ist dabei längst überwunden.
Die Datenvorbehandlung umfasst Erkennen und Ersetzen fehlender Daten, Minimierung von Rauschen mit multivariaten Analyseverfahren oder auch das Erkennen und Korrigieren von Messartefakten, die Signalintensitäten beeinflussen.
Generell ist eine Tendenz zu mehr objektiven Methoden der Datenvorbehandlung zu verzeichnen. Beispielsweise übernehmen Waveletfunktionen das empirische Setzen von Fußpunkten bei Basislinienkorrekturen. Für das Ausgleichen fehlender Daten sind bereits vor etwa fünf Jahren beschriebene kombinierte Methoden interessant, darunter Known Data Regression (KDR) und Trimmed Scores Regression (TSR), die mit der Principial Component Analysis (PCA, Hauptkomponentenanalyse) oder mit der Partial Least Squares Regression (PLSR) angewendet werden.75) In der Literatur finden sich frei verfügbare Toolboxen für den Umgang mit fehlenden Daten.76) Einen guten Überblick zu neueren Methoden der Datenvorbehandlung einschließlich einiger praktischer Matlab-Toolboxen finden sich ebenfalls in der Literatur.77)
Da der Umfang von zu verarbeitenden Daten (big data) weiter zunimmt, sind chemometrische Methoden erforderlich, die Datenmengen nicht nur numerisch bewältigen, sondern auch Strukturen in den Daten offenlegen können. Insbesondere Daten aus multimodalen Messungen führen dabei zu Herausforderungen.
Eine neue Strategie ist die Multi-Block-Datenanalyse. Durch die Kombination von Daten verschiedener Verfahren, aber der gleichen Probe ergeben sich Informationen, die mit einer monomodalen Analyse nicht zugänglich sind. Ein Überblick über Methoden der Multi-Block-Analyse stammt von Mishra und Team.78)
Andere methodische Entwicklungen sind auf die Anwendung nichtlinearer Modelle gerichtet. Diese sind vor allem zum Lösen von Problemen mit überdeterminierten linearen Gleichungen hilfreich. Aus den zusätzlichen Variablen der Nichtlinearität lassen sich weitere Informationen ableiten.
In den zurückliegenden Jahrzehnten hat die Chemometrik überwiegend spektroskopische Verfahren begleitet. Nun greift sie auf Chromatografie und Massenspektrometrie über. Die Chemometrik wird damit zu einem unentbehrlichen Werkzeug in Disziplinen, mit denen sie bislang eher wenige Berührungen hatte, beispielsweise in der Forensik.79)
Wer angesichts der Entwicklungen sein Wissen über Chemometrik auffrischen und vertiefen möchte, dem sei ein kürzlich erschienenes Review empfohlen.80)
Eine auf das Jahr 2021 rückblickenden Trendanalyse der Chemometrik kommt an einem Punkt nicht vorbei: Die Pandemie hat uns gelehrt, wie wichtig eine wissenschaftlich fundierte Analyse und Interpretation von Messwerten ist. Eine Leseempfehlung dazu ist der Beitrag von Torres Neto und Team.81) Vielleicht führt das dazu, die Chemometrik stärker in naturwissenschaftlichen Studienfächern, allen voran in der Chemie, curricular zu verankern, am besten in der Präsenzlehre.
Claudia Beleites, Chemometrix; Jörg Kraft, SGS Holding Deutschland; Andrea Paul, Bundesanstalt für Materialforschung und -prüfung, BAM, Berlin; Gerald Steiner, TU Dresden
Röntgendiffraktometrie ist weiterhin die prominenteste analytische Methode in der chemischen Kristallographie. In den letzten drei Jahren verzeichnete die Cambridge Structural Database (CSD) substanzielle Zuwächse neuer Einträge:82) 56 721 (2019), 60 447 (2020) und 47 920 (2021). Dabei war 2020 das zugangsstärkste Jahr der CSD überhaupt und 2021 das -schwächste Jahr seit 2012.
Generell arbeiten die Strukturdatenbanken an optimaler Nutzbarkeit der Daten. So versucht die CSD, die Fair Data Principles83) umzusetzen, spezifische Teildatensätze (subsets) und Tools zu verbessern und Daten sowohl von Menschen als auch von Maschinen ideal auswertbar zu machen.84)
Methodische Entwicklungen setzen sich fort: Elektronendiffraktion entwickelt sich zu einer in größerer Breite anwendbaren strukturanalytischen Methode weiter, vor allem 3-D-Elektronendiffraktion (3D-ED),85) die Kristalle im Submikrometerbereich analysieren kann. Einer der Gründe für die zunehmende Popularität ist die instrumentelle Entwicklung der letzten Jahre. Erste Unternehmen produzieren bereits Elektronendiffraktometer für hausinterne Labore86,87) (
Im Vergleich zu modifizierten Elektronenmikroskopen sollen die dezidierten Elektronendiffraktometer zeitintensive Umbauten überflüssig machen und sich durch eine einfache Bedienung gut in röntgenstrukturanalytische Labore einfügen. Dies geht einher mit Softwareentwicklungen, die Datenerfassung und -auswertung einer 3D-ED-Messung für röntgenkristallographisch geübte Personen erleichtern, da die Abläufe den gewohnten ähneln. So erfolgen (kinematische) Verfeinerungen mit etablierten Programmsystemen wie Olex2, ShelX oder Crystals mit überschaubarem Rechenaufwand und liefern für viele Fragen Strukturmodelle ausreichender Güte.
Aufwendigere dynamische Verfeinerungen sind mit Jana2006 möglich, das Ergebnis sind genauere Modelle mit niedrigeren R1-Werten. Die CSD-Datenbank enthält seit dem Update auf CSD 2021.3 vom Dezember 2021 auch einen Teildatensatz für ED-Strukturen, der eine wachsende Zahl an hinterlegten Strukturen in den letzten Jahren zeigt (
Ein sehr lesenswerter, detaillierter Perspektivenartikel über 3D-ED als zu etablierende Methode in der analytischen Chemie ist gerade erschienen und geht auf Gemeinsamkeiten und Unterschiede zur Röntgenbeugung sowie auf praktische Aspekte dieser Methode ein.89)
Im Gegensatz zum klassischen Independent Atom Model (IAM) werden bei den nichtsphärischen Verfeinerungsmethoden in der Quantenkristallographie asphärische Atomformfaktoren zur Modellierung verwendet. Diese sind zum Beispiel durch quantenmechanische Berechnungen erhältlich. Entsprechende Implementierungen gibt es inzwischen in mehreren Programmen, darunter in ShelXL mit dem Invariom-Formalismus90) sowie in NoSpherA2,91) das bereits einen leichteren und schnelleren Zugang für Hirshfeld Atom Refinement (HAR) in Olex2 bietet. Beispiele der besseren Modellierung der Elektronendichteverteilung zeigen Abbildungen
Alexander Pöthig, TU München
Der diesjährige Trendbericht wurde möglich durch das Engagement des Vorstands der GDCh-Fachgruppe Analytische Chemie. Beteiligt waren die jeweiligen Arbeitskreise, den Trendbericht koordinert hat Günter Gauglitz.
Der Trendbericht Analytische Chemie erscheint alle zwei Jahre parallel zur Analytica Conference, die alle Bereiche der chemischen und biochemischen Analytik abdeckt. In diesem Jahr findet die Conference vom 21. bis zum 23. Juni im ICM – International Congress Center München statt, parallel zur Messe Analytica. Das Messegelände liegt nur wenige Schritte vom ICM entfernt und präsentiert vom 21. bis zum 24. Juni Neuentwicklungen bei Analysen- und Labortechnik.
Conference und Messe fanden zuletzt im April 2018 statt, im Jahr 2020 fiel die Veranstaltung wegen der Covid-19-Pandemie aus.
Wenn Sie ein registrierter Benutzer sind, zeigen wir in Kürze den vollständigen Artikel.