Information

9.6: Prüfung der Wirksamkeit von Arzneimitteln - Biologie

9.6: Prüfung der Wirksamkeit von Arzneimitteln - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Lernziele

  • Beschreiben Sie, wie der Kirby-Bauer-Scheibendiffusionstest die Anfälligkeit einer Mikrobe für ein antibakterielles Medikament bestimmt.
  • Erklären Sie die Bedeutung der minimalen Hemmkonzentration und der minimalen bakteriziden Konzentration im Verhältnis zur Wirksamkeit eines antimikrobiellen Arzneimittels.

Die Prüfung der Wirksamkeit antimikrobieller Arzneimittel gegen bestimmte Organismen ist wichtig, um ihr Wirkungsspektrum und die therapeutische Dosierung zu ermitteln. Diese Art von Test, allgemein als antimikrobielle Empfindlichkeitsprüfung (AST) bezeichnet, wird üblicherweise in einem klinischen Labor durchgeführt. In diesem Abschnitt besprechen wir gängige Methoden zum Testen der Wirksamkeit von Antibiotika.

Der Kirby-Bauer-Disk-Diffusionstest

Der Kirby-Bauer-Scheibendiffusionstest wird seit langem als Ausgangspunkt für die Bestimmung der Anfälligkeit bestimmter Mikroben gegenüber verschiedenen antimikrobiellen Medikamenten verwendet. Der Kirby-Bauer-Assay beginnt mit einer Mueller-Hinton-Agarplatte, auf der ein konfluenter Rasen mit einem isolierten bakteriellen Krankheitserreger eines Patienten beimpft wird. Filterpapierscheiben, die mit bekannten Mengen zu testender antibakterieller Wirkstoffe imprägniert sind, werden dann auf die Agarplatte gelegt. Während das bakterielle Inokulum wächst, diffundiert das Antibiotikum von der kreisförmigen Scheibe in den Agar und interagiert mit den wachsenden Bakterien. Die antibakterielle Aktivität wird als klare kreisförmige Hemmzone um die arzneimittelimprägnierte Scheibe herum beobachtet, ähnlich dem Scheibendiffusionstest. Der Durchmesser der Hemmzone, gemessen in Millimetern und im Vergleich zu einem standardisierten Diagramm, bestimmt die Anfälligkeit bzw. Resistenz des bakteriellen Erregers gegen das Medikament.

Es gibt mehrere Faktoren, die die Größe einer Hemmzone in diesem Assay bestimmen, einschließlich der Löslichkeit des Arzneimittels, der Geschwindigkeit der Arzneimitteldiffusion durch den Agar, der Dicke des Agarmediums und der in die Scheibe imprägnierten Arzneimittelkonzentration. Aufgrund fehlender Standardisierung dieser Faktoren liefert die Interpretation des Kirby-Bauer-Disk-Diffusions-Assays nur begrenzte Informationen über die Anfälligkeit und Resistenz gegenüber den getesteten Medikamenten. Der Assay kann nicht zwischen bakteriostatischen und bakteriziden Aktivitäten unterscheiden, und Unterschiede in den Zonengrößen können nicht verwendet werden, um Wirkstoffstärken oder -wirksamkeiten zu vergleichen. Der Vergleich der Zonengrößen mit einer standardisierten Tabelle gibt nur Auskunft darüber, gegen welche Antibiotika ein bakterieller Erreger anfällig oder resistent ist.

Übung (PageIndex{1})

Wie nutzt man die Informationen aus einem Kirby-Bauer-Assay, um die therapeutische Wirksamkeit eines antimikrobiellen Medikaments bei einem Patienten vorherzusagen?

ANTIBIOGRAMME: EINIGE SCHLÄTZE AUS VERORDNUNGEN HERAUSNEHMEN

Leider nehmen sich Infektionskrankheiten keine Auszeit für die Laborarbeit. Infolgedessen haben Ärzte selten den Luxus, Empfindlichkeitstests durchzuführen, bevor sie ein Rezept ausstellen. Stattdessen verlassen sie sich in erster Linie auf die empirische Evidenz (d. h. die Anzeichen und Symptome der Krankheit) und ihre berufliche Erfahrung, um eine fundierte Vermutung hinsichtlich der Diagnose, des/der Erreger(s) und des Medikaments zu treffen, die am wahrscheinlichsten wirksam sind. Durch diesen Ansatz kann die Behandlung früher beginnen, sodass der Patient nicht auf die Ergebnisse von Labortests warten muss. In vielen Fällen ist das Rezept wirksam; im Zeitalter zunehmender Antibiotikaresistenzen wird es jedoch immer schwieriger, die am besten geeignete empirische Therapie auszuwählen. Die Wahl einer ungeeigneten empirischen Therapie gefährdet nicht nur den Patienten, sondern kann auch eine größere Resistenz gegen das verschriebene Medikament fördern.

Kürzlich haben Studien gezeigt, dass Antibiogramme nützliche Werkzeuge im Entscheidungsprozess zur Auswahl einer geeigneten empirischen Therapie sind. Ein Antibiogramm ist eine Zusammenstellung von lokalen Antibiotika-Empfindlichkeitsdaten, aufgeschlüsselt nach bakteriellen Erregern. In einer im November 2014 in der Zeitschrift veröffentlichten Studie Infektionskontrolle und Krankenhausepidemiologie, stellten die Forscher fest, dass 85 % der in qualifizierten Pflegeeinrichtungen bestellten Verschreibungen empirisch entschieden wurden, aber nur 35 % dieser Verschreibungen wurden als angemessen erachtet, verglichen mit der letztendlichen Identifizierung des Erregers und dem Empfindlichkeitsprofil aus dem klinischen Labor. In einer Pflegeeinrichtung, in der der Einsatz von Antibiogrammen zur direkten Auswahl der empirischen Therapie eingesetzt wurde, erhöhte sich jedoch die Angemessenheit der empirischen Therapie von 32 % vor der Einführung des Antibiogramms auf 45 % nach der Einführung der Antibiogramme.1 Obwohl diese Daten vorläufig sind, deuten sie darauf hin, dass Gesundheitseinrichtungen die Anzahl unangemessener Verordnungen reduzieren können, indem sie Antibiogramme verwenden, um eine empirische Therapie auszuwählen, was den Patienten zugute kommt und die Möglichkeiten der Entwicklung von Antibiotikaresistenzen minimiert.

Verdünnungstests

Wie bereits erwähnt, erlauben die Grenzen des Kirby-Bauer-Scheibendiffusionstests keinen direkten Vergleich der antibakteriellen Potenzen, um die Auswahl der besten therapeutischen Wahl zu treffen. Antibakterielle Verdünnungstests können jedoch verwendet werden, um die minimale Hemmkonzentration (MHK) eines bestimmten Arzneimittels zu bestimmen, die niedrigste Arzneimittelkonzentration, die das sichtbare Bakterienwachstum hemmt, und die minimale bakterizide Konzentration (MBC), die niedrigste Arzneimittelkonzentration, die ≥99,9 % der beginnendes Inokulum. Die Bestimmung dieser Konzentrationen hilft, das richtige Medikament für einen bestimmten Krankheitserreger zu identifizieren. Für den Makrobouillon-Verdünnungsassay wird eine Verdünnungsreihe des Arzneimittels in Bouillon in Reagenzgläsern hergestellt und die gleiche Anzahl von Zellen eines Testbakterienstamms wird in jedes Röhrchen gegeben (Abbildung (PageIndex{1})). Die MHK wird bestimmt, indem die Röhrchen untersucht werden, um die niedrigste Wirkstoffkonzentration zu finden, die das sichtbare Wachstum hemmt; dies wird als Trübung (Trübung) in der Brühe beobachtet. Röhrchen ohne sichtbares Wachstum werden dann auf Agarmedien ohne Antibiotikum geimpft, um den MBC zu bestimmen. Im Allgemeinen sollten die Serumspiegel eines antibakteriellen Mittels zur Behandlung einer Infektion mindestens drei- bis fünfmal über der MHK liegen.

Der MIC-Assay kann auch mit 96-Well-Mikroverdünnungsschalen durchgeführt werden, die die Verwendung kleiner Volumina und automatischer Dosiergeräte sowie das Testen mehrerer antimikrobieller Mittel und/oder Mikroorganismen in einer Schale ermöglichen (Abbildung (PageIndex{2 })). MICs werden als die niedrigste Konzentration interpretiert, die das sichtbare Wachstum hemmt, genauso wie bei der Makrobouillon-Verdünnung in Reagenzgläsern. Das Wachstum kann auch visuell oder unter Verwendung eines Spektrophotometers oder einer ähnlichen Vorrichtung interpretiert werden, um eine Trübung oder eine Farbänderung zu erkennen, wenn auch ein geeignetes biochemisches Substrat, das die Farbe bei Vorhandensein von Bakterienwachstum ändert, in jeder Vertiefung enthalten ist.

Der Etest ist eine alternative Methode zur Bestimmung der MHK und ist eine Kombination aus dem Kirby-Bauer-Scheibendiffusionstest und Verdünnungsmethoden. Ähnlich wie beim Kirby-Bauer-Assay wird ein konfluenter Rasen eines Bakterienisolats auf die Oberfläche einer Agarplatte geimpft. Anstatt kreisförmige Scheiben zu verwenden, die mit einer Wirkstoffkonzentration imprägniert sind, werden jedoch handelsübliche Kunststoffstreifen, die einen antibakteriellen Gradienten enthalten, auf die Oberfläche der beimpften Agarplatte gelegt (Abbildung (PageIndex{3})). Während das bakterielle Inokulum wächst, diffundiert das Antibiotikum von den Plastikstreifen in den Agar und interagiert mit den Bakterienzellen. Da die Geschwindigkeit der Wirkstoffdiffusion direkt mit der Konzentration zusammenhängt, wird beim Etest-Wirkstoffgradienten eher eine elliptische Hemmzone beobachtet als beim Kirby-Bauer-Assay eine kreisförmige Hemmzone. Um die Ergebnisse zu interpretieren, zeigt der Schnittpunkt der elliptischen Zone mit dem Gradienten auf dem arzneimittelhaltigen Streifen die MHK an. Da mehrere Streifen mit unterschiedlichen antimikrobiellen Mitteln auf derselben Platte platziert werden können, kann die MHK mehrerer antimikrobieller Mittel gleichzeitig bestimmt und direkt verglichen werden. Im Gegensatz zu den Verdünnungsverfahren Makrobouillon und Mikrobouillon kann der MBC jedoch nicht mit dem Etest bestimmt werden.

Übung (PageIndex{2})

Vergleichen und kontrastieren Sie MIC und MBC.

Auflösung

Marisas HWI wurde wahrscheinlich durch die Katheterisierungen verursacht, die sie in Vietnam hatte. Die meisten Bakterien, die Harnwegsinfektionen verursachen, sind Mitglieder der normalen Darmmikrobiota, aber sie können Infektionen verursachen, wenn sie in die Harnwege eingeführt werden, wie es beim Einführen des Katheters aufgetreten sein könnte. Alternativ, wenn der Katheter selbst nicht steril war, könnten Bakterien auf seiner Oberfläche in Marisas Körper eingebracht worden sein. Die antimikrobielle Therapie, die Marisa in Kambodscha erhielt, könnte auch ein erschwerender Faktor gewesen sein, da sie möglicherweise auf antimikrobiell resistente Stämme selektiert wurde, die bereits in ihrem Körper vorhanden sind. Diese Bakterien hätten bereits Gene für antimikrobielle Resistenz enthalten, die entweder durch spontane Mutation oder durch horizontalen Gentransfer erworben wurden, und hätten daher den besten evolutionären Vorteil für Anpassung und Wachstum in Gegenwart der antimikrobiellen Therapie. Als Ergebnis könnte einer dieser resistenten Stämme nachträglich in ihre Harnwege eingeführt worden sein.

Labortests bei der CDC bestätigten, dass der Stamm von Klebsiella pneumoniae aus Marisas Urinprobe war positiv für das Vorhandensein von NDM, einer sehr aktiven Carbapenemase, die sich als neues Problem der Antibiotikaresistenz herausstellt. Während NDM-positive Stämme gegen eine Vielzahl von Antibiotika resistent sind, haben sie eine Anfälligkeit für Tigecyclin (strukturell mit Tetracyclin verwandt) und die Polymyxine B und E (Colistin) gezeigt.

Um eine Ausbreitung ihrer Infektion zu verhindern, wurde Marisa in einem separaten Raum von den anderen Patienten isoliert. Alle Krankenhausmitarbeiter, die mit ihr interagieren, wurden angewiesen, strenge Protokolle zu befolgen, um eine Kontamination von Oberflächen und Geräten zu verhindern. Dazu gehören eine besonders strenge Händehygiene und eine sorgfältige Desinfektion aller Gegenstände, die mit ihr in Berührung kommen.

Marisas Infektion reagierte schließlich auf Tigecyclin und verschwand schließlich. Sie wurde einige Wochen nach der Aufnahme entlassen und eine Stuhlprobe zeigte, dass ihr Stuhl frei von NDM war K. pneumoniae, was bedeutete, dass sie das hochresistente Bakterium nicht mehr beherbergte.

Schlüsselkonzepte und Zusammenfassung

  • Die Kirby-Bauer-Scheibendiffusion Test hilft, die Anfälligkeit eines Mikroorganismus gegenüber verschiedenen antimikrobiellen Medikamenten zu bestimmen. Allerdings ist die Hemmzonen Die gemessenen Werte müssen mit bekannten Standards korreliert werden, um Anfälligkeit und Resistenz zu bestimmen, und liefern keine Informationen über bakterizide versus bakteriostatische Aktivität oder ermöglichen einen direkten Vergleich der Wirkstoffstärken.
  • Antibiogramme sind nützlich, um lokale Trends der Antibiotikaresistenz/-empfindlichkeit zu überwachen und eine angemessene Auswahl einer empirischen antibakteriellen Therapie zu lenken.
  • Zur Bestimmung der stehen mehrere Labormethoden zur Verfügung minimale Hemmkonzentration (MHK) eines antimikrobiellen Medikaments gegen eine bestimmte Mikrobe. Die minimale bakterizide Konzentration (MBC) können ebenfalls bestimmt werden, typischerweise als Folgeexperiment zur MHK-Bestimmung mit der Röhrchenverdünnungsmethode.
  1. 1 J. P. Furuno et al. „Verwendung von Antibiogrammen zur Verbesserung der Antibiotika-Verschreibung in qualifizierten Pflegeeinrichtungen.“ Infektionskontrolle und Krankenhausepidemiologie 35 Nr. Ergänzung S3 (2014):S56–61.

Mitwirkender

  • Nina Parker (Shenandoah University), Mark Schneegurt (Wichita State University), Anh-Hue Thi Tu (Georgia Southwestern State University), Philip Lister (Central New Mexico Community College) und Brian M. Forster (Saint Joseph's University) mit vielen beitragende Autoren. Originalinhalt über Openstax (CC BY 4.0; Zugang kostenlos unter https://openstax.org/books/microbiology/pages/1-introduction)


Top 4 Tests für die Empfindlichkeit gegenüber antimikrobiellen Medikamenten

Die folgenden Punkte heben die vier wichtigsten Tests zur Bestimmung der Empfindlichkeit gegenüber antimikrobiellen Arzneimitteln hervor. Die Prüfungen sind: 1. Verdünnungsempfindlichkeitstests 2. Disk-Diffusionstests 3. Der Etest 4. Messung der Arzneimittelkonzentration im Blut.

1. Verdünnungsempfindlichkeitstests:

Verdünnungsempfindlichkeitstests basieren auf der Bestimmung der minimalen Hemmkonzentration (MHK). Bei der MIC wird die antimikrobielle Aktivität gemessen, indem die kleinste Menge des Arzneimittels bestimmt wird, die erforderlich ist, um das Wachstum eines mikrobiellen Testpathogens zu hemmen, und diese kleinste Arzneimittelmenge lässt das mikrobielle Testpathogen nach 16 bis 20 Stunden Inkubation nicht wachsen. Üblicherweise werden zwei Verdünnungsempfindlichkeitstesttechniken verwendet.

(1) Brühenverdünnungstest und

1. Technik zur Verdünnung der Brühe:

Bei der Bouillonverdünnungstechnik wird eine Reihe von Kulturröhrchen vorbereitet und mit der klinischen Probe beimpft (Abb. 46.10). Jedes Röhrchen enthält Medium mit einer anderen Konzentration des antimikrobiellen Arzneimittels.

Nach der Inkubation werden die Kulturröhrchen auf sichtbares Wachstum (Trübung) des mikrobiellen Erregers überprüft. Das Röhrchen mit der niedrigsten Konzentration des Arzneimittels, das das Wachstum des mikrobiellen Testpathogens vollständig hemmt, repräsentiert die minimale Hemmkonzentration (MHK) des gegebenen Arzneimittels.

Die MHK ist für ein bestimmtes Arzneimittel keine Konstante, da sie von verschiedenen Faktoren beeinflusst wird, wie zum Beispiel:

(1) die Art des mikrobiellen Testerregers,

(3) Zusammensetzung des Kulturmediums,

Wenn jedoch alle Bedingungen streng standardisiert sind, können verschiedene antimikrobielle Medikamente verglichen werden, um zu bestimmen, welche gegen einen bestimmten mikrobiellen Krankheitserreger am wirksamsten sind.

Die Phenolkoeffiziententechnik ist eine Standardmethode zum Vergleich antimikrobieller Arzneimittel. Bei dieser Technik wird ein Verhältnis der MIC des antimikrobiellen Testarzneimittels zu der MIC von Phenol unter Verwendung des gleichen mikrobiellen Pathogens, des gleichen Wachstumsmediums und der gleichen Wachstumsbedingungen ermittelt.

Der Agar-Verdünnungstest ist dem Bouillon-Verdünnungstest sehr ähnlich. Petrischalen mit Agar und verschiedenen Mengen antimikrobieller Wirkstoffe (Antibiotika) werden mit dem mikrobiellen Testpathogen beimpft und nach der Inkubation auf Wachstum untersucht.

2. Disk-Diffusionstests:

Im klinischen Mikrobiologielabor werden zwei Disk-Diffusionstests verwendet.

(i) Agar-Diffusionstechnik und

1. Agar-Diffusionstechnik:

Die Agar-Diffusionstechnik wird routinemäßig verwendet, um die Empfindlichkeit gegenüber antimikrobiellen Arzneimitteln (Antibiotika) bei mikrobiellen Krankheitserregern zu testen. Bei dieser Technik (Abb. 46.11) wird eine Petriplatte hergestellt, die ein Agarmedium enthält, das mit einer Kultur des mikrobiellen Testpathogens überschichtet ist. Bekannte Mengen des antimikrobiellen Arzneimittels werden zu Filterpapierscheiben gegeben.

Diese Scheiben werden dann auf die Agaroberfläche gelegt und die Petriplatte wird nun für 24 bis 48 Stunden inkubiert. Während der Inkubation diffundiert das Medikament von der Filterpapierscheibe in den Agar weiter in den Abstand von der Füllpapierscheibe, wodurch die Konzentration des antimikrobiellen Wirkstoffs verringert wird.

In einiger Entfernung von der Platte wird der effektive MIC erreicht. Das Wachstum des mikrobiellen Pathogens erfolgt ab diesem Punkt weiter, aber näher an der Scheibe fehlt das Wachstum. Es wird eine Hemmzone mit einem Durchmesser erzeugt, der proportional zur Menge des antimikrobiellen Arzneimittels ist, der Löslichkeit des Arzneimittels, dem Diffusionskoeffizienten und der Gesamtwirksamkeit des Arzneimittels hinzugefügt wird.

2. Kirby-Bauer-Methode:

Die Kirby-Bauer-Methode wurde in den frühen 1960er Jahren von W. Kirby, A.W. Bauer und ihren Kollegen und wird am häufigsten verwendet, um die Empfindlichkeit gegenüber antimikrobiellen Medikamenten zu testen. Bei diesem Verfahren werden Agarmedien angeimpft, indem eine definierte Dichte einer Suspension der Reinkultur des mikrobiellen Erregers gleichmäßig auf der Agaroberfläche verteilt wird.

Nachdem die Agaroberfläche ca. 5 Minuten getrocknet ist, werden Filterpapierscheiben mit einer definierten Menge (μg/Scheibe) des antimikrobiellen Wirkstoffs entweder mit einer sterilisierten Pinzette oder mit einem Mehrfachapplikator auf die beimpfte Agaroberfläche aufgelegt (Abb 46.12).

Die Petriplatte wird sofort in einen Inkubator bei 35 °C gestellt. Nach 16 bis 18 Stunden Inkubation werden die Durchmesser der Hemmzonen um jede Scheibe herum gemessen.

Die Hemmzonendurchmesser werden dann mit Hilfe von Tabelle 46.5, die den Zonendurchmesser mit dem Grad der mikrobiellen Resistenz in Beziehung setzt, in den Grad der mikrobiellen Resistenz interpretiert. Die Werte in dieser Tabelle wurden abgeleitet, indem die MHK-Werte und der Durchmesser der Zonen für viele verschiedene Stämme mikrobieller Pathogene ermittelt wurden.

Für jedes antimikrobielle Arzneimittel wird eine Auftragung der MHK (auf einer logarithmischen Skala) gegen den Zoneninhibitionsdurchmesser (arithmetische Skala) erstellt (Abb. 46.13). Diese Diagramme werden dann verwendet, um die Zonendurchmesser zu finden, die den tatsächlich im Körper des Wirts erreichten Arzneimittelkonzentrationen entsprechen.

Wenn der Zonendurchmesser für die niedrigste Konzentration im Körper des Wirts kleiner ist als der, der beim mikrobiellen Testerreger beobachtet wurde, sollte letzterer einen ausreichend niedrigen MHK-Wert aufweisen, um durch das Arzneimittel zerstört zu werden. Ein mikrobieller Erreger mit einem zu hohen MHK-Wert (zu kleiner Zonendurchmesser) ist bei normalen Körperkonzentrationen gegen das Medikament resistent.

3. Der Etest:

Der Etest (von AB BIODISK, Solna, Schweden) ist eine nicht-diffusionsbasierte Technik, die einen durchgeführten und neu definierten Gradienten eines antimikrobiellen Wirkstoffs verwendet, der auf einem Kunststoffstreifen immobilisiert ist. Etest ist besonders praktisch für die Anwendung bei anaeroben mikrobiellen Krankheitserregern.

Darin wird eine Petriplatte mit der richtigen Agarmenge in drei verschiedene Richtungen mit dem zu testenden mikrobiellen Erreger bestrichen und spezielle E-Teststreifen aus Kunststoff so auf die Agaroberfläche gelegt, dass sie radial aus der Mitte herausragen (Abb. 46.14).

Jeder Streifen besitzt einen Konzentrationsgradienten eines antimikrobiellen Arzneimittels und ist mit einer Skala von minimalen Hemmkonzentrationswerten (MHK) gekennzeichnet. Die niedrigste Konzentration im Etest-Streifen liegt in der Mitte der Platte.

Nach einer Inkubation über Nacht oder länger (24 bis 48 Stunden) erscheint eine elliptische Hemmzone, die entlang der Achse des Streifens zentriert ist. Der MHK-Wert in µg/ml wird auf der Skala an dem Punkt abgelesen, an dem er die Hemmzone schneidet, wie in der Abbildung durch den Pfeil dargestellt.

4. Messung der Wirkstoffkonzentration im Blut:

Das verwendete Medikament muss eine Konzentration erreichen, die über der minimalen Hemmkonzentration (MHK) des Erregers an der Infektionsstelle liegt, um wirksam zu werden.

Bei schweren und lebensbedrohlichen Erkrankungen ist es häufig erforderlich, die Arzneimittelkonzentration im Blut und anderen Körperflüssigkeiten des Patienten zu überwachen. Dies kann mit Hilfe von mikrobiologischen, chemischen, immunologischen, enzymatischen und chromatographischen Assays erreicht werden.


Abstrakt

Die Produktivität der pharmazeutischen Industrie wurde in den letzten Jahren breit diskutiert, insbesondere im Hinblick auf Bedenken, dass erhebliche Ausgaben für Forschung und Entwicklung nicht in zugelassene Medikamente umgesetzt wurden. Verschiedene Analysen dieser Produktivitätsherausforderung konzentrierten sich auf Aspekte wie die Fluktuationsraten in bestimmten klinischen Phasen oder die physikalisch-chemischen Eigenschaften von Wirkstoffkandidaten, aber die Leistung der Industrie im Hinblick auf die Wahl der therapeutischen Mechanismen und deren beabsichtigten Indikationen. In diesem Artikel wird untersucht, was die pharmazeutische Industrie in dieser Hinsicht erreicht hat, indem sie umfassende branchenweite Daten zu den in den letzten 20 Jahren untersuchten Mechanismus-Indikations-Paaren analysiert. Unsere Ergebnisse weisen auf mehrere Punkte und Trends hin, von denen wir hoffen, dass sie für das Verständnis und die Verbesserung der Produktivität der Branche nützlich sein werden, einschließlich der Bereiche, in denen die Branche erhebliche Erfolge oder Misserfolge verzeichnet hat, und des relativen Ausmaßes an Neuheiten bei abgeschlossenen und laufenden Projekten.


Probleme der erfolgreichen Übertragung von Daten aus Tierversuchen auf den Menschen

Obwohl die Unzuverlässigkeit und die Grenzen von Tierversuchen zunehmend anerkannt werden, herrscht in weiten Teilen der biomedizinischen Gemeinschaft das allgemeine Vertrauen, dass sie überwunden werden können. 7 Allerdings untergraben drei Hauptbedingungen dieses Vertrauen und erklären, warum Tierversuche, unabhängig von der untersuchten Krankheitskategorie, keine zuverlässige Information über die menschliche Gesundheit liefern: (1) die Auswirkungen der Laborumgebung und anderer Variablen auf die Studienergebnisse, (2) Unterschiede zwischen Tiermodelle von Krankheiten und menschlichen Krankheiten und (3) Artenunterschiede in Physiologie und Genetik. Ich plädiere für die entscheidende Bedeutung jeder dieser Bedingungen.

Der Einfluss von Laborverfahren und Umgebungen auf experimentelle Ergebnisse

Laborverfahren und -bedingungen haben Einfluss auf die Physiologie und das Verhalten von Tieren, die schwer zu kontrollieren sind und sich letztendlich auf die Forschungsergebnisse auswirken können. Tiere in Laboratorien werden für die Dauer ihres Lebens unfreiwillig in künstlichen Umgebungen, meist in fensterlosen Räumen, untergebracht. Gefangenschaft und die gemeinsamen Merkmale biomedizinischer Laboratorien wie künstliche Beleuchtung, vom Menschen verursachte Geräusche und eingeschränkte Wohnumgebungen können arttypisches Verhalten verhindern, was zu Leiden und abnormalem Verhalten bei Tieren führt. 8 Zu den Arten von laborbedingtem Stress gehört das Phänomen der ansteckenden Angst. 9 Der Kortisonspiegel steigt bei Affen, die zusehen, wie andere Affen zur Blutentnahme festgehalten werden. 10 Blutdruck und Herzfrequenz steigen bei Ratten, die beobachten, wie andere Ratten enthauptet werden. 11 Routinemäßige Laborverfahren, wie das Fangen eines Tieres und das Herausnehmen aus dem Käfig, zusätzlich zu den experimentellen Verfahren, führen zu einem signifikanten und anhaltenden Anstieg der Stressmarker bei Tieren. 12 Diese stressbedingten Veränderungen physiologischer Parameter, die durch die Laborverfahren und Umgebungen verursacht werden, können erhebliche Auswirkungen auf die Testergebnisse haben. 13 Gestresste Ratten zum Beispiel entwickeln chronische entzündliche Zustände und Darmlecks, was zusätzliche Variablen hinzufügt, die Daten verfälschen können. 14

Eine Vielzahl von Bedingungen im Labor verursacht Veränderungen in der Neurochemie, der genetischen Expression und der Nervenregeneration. 15 In einer Studie zum Beispiel wurden Mäuse genetisch verändert, um Aortendefekte zu entwickeln. Wenn die Mäuse jedoch in größeren Käfigen untergebracht wurden, verschwanden diese Defekte fast vollständig. 16 Um weitere Beispiele zu nennen, können typische Geräuschpegel in Labors Blutgefäße bei Tieren schädigen, und sogar die Art des Bodenbelags, auf dem Tiere in Experimenten mit Rückenmarksverletzungen getestet werden, kann einen Einfluss darauf haben, ob ein Medikament einen Nutzen zeigt. 17

Um potenzielle Störfaktoren zu kontrollieren, haben einige Forscher eine Standardisierung der Laboreinstellungen und -verfahren gefordert. 18 Eine bemerkenswerte Anstrengung wurde von Crabbe et al. in ihrer Untersuchung der möglichen verwirrenden Einflüsse der Laborumgebung auf sechs Mausverhaltensweisen, die üblicherweise in neurobehavioralen Experimenten untersucht werden. Trotz ihrer 𠇊ußerordentlichen Längen, um Testgeräte, Testprotokolle und alle möglichen Merkmale der Tierhaltung in drei Laboratorien gleichzusetzen”, gab es in diesen Labors systematische Unterschiede in den Testergebnissen. 19 Darüber hinaus variierten die verschiedenen Mausstämme in allen Verhaltenstests deutlich, und bei einigen Tests war das Ausmaß der genetischen Unterschiede vom jeweiligen Testlabor abhängig. Die Ergebnisse legen nahe, dass es wichtige Einflüsse von Umgebungsbedingungen und -verfahren gibt, die für einzelne Laboratorien spezifisch sind und die schwer —vielleicht sogar unmöglich zu beseitigen sind. Diese Einflüsse können Forschungsergebnisse verfälschen und eine Übertragung auf den Menschen erschweren.

Die Diskordanz zwischen menschlichen Krankheiten und Tiermodellen von Krankheiten

Der Mangel an ausreichender Kongruenz zwischen Tiermodellen und menschlichen Krankheiten ist ein weiteres bedeutendes Hindernis für die translationale Zuverlässigkeit. Menschliche Krankheiten werden typischerweise bei Tieren künstlich induziert, aber die enorme Schwierigkeit, alles zu reproduzieren, das der Komplexität menschlicher Krankheiten in Tiermodellen nahe kommt, schränkt ihren Nutzen ein. 20 Auch wenn das Design und die Durchführung eines Tierversuchs solide und standardisiert sind, kann die Übertragung seiner Ergebnisse in die Klinik an den Unterschieden zwischen dem Tierversuchsmodell und dem menschlichen Zustand scheitern. 21

Die Schlaganfallforschung ist ein herausragendes Beispiel für die Schwierigkeiten bei der Modellierung menschlicher Krankheiten bei Tieren. Der Schlaganfall ist in seiner zugrunde liegenden Pathologie relativ gut verstanden. Die genaue Modellierung der Krankheit bei Tieren hat sich jedoch als sinnlos erwiesen. Um die Unfähigkeit, einen menschlichen Schlaganfall bei Tieren zu replizieren, anzugehen, behaupten viele die Notwendigkeit, standardisiertere Protokolle für das Design von Tierstudien zu verwenden. Dies schließt den Einsatz von Tieren ein, die beide Geschlechter und weite Altersgruppen repräsentieren, die beim Menschen natürlich vorkommende Komorbiditäten und Vorerkrankungen aufweisen und die folglich Medikamente erhalten, die für menschliche Patienten indiziert sind. 22 Tatsächlich wurde 1999 eine Reihe von Leitlinien mit dem Namen STAIR von einem Runden Tisch zu Schlaganfall eingeführt (und 2009 aktualisiert), um Protokolle zu standardisieren, die Diskrepanzen zu begrenzen und die Anwendbarkeit von Tierversuchen mit Schlaganfall auf den Menschen zu verbessern. 23 Eine der vielversprechendsten Schlaganfallbehandlungen, die sich später herausstellte, war NXY-059, das sich in Tierversuchen als wirksam erwiesen hat. Das Medikament scheiterte jedoch in klinischen Studien, obwohl die Tierversuche zu diesem Medikament als Aushängeschild für die neuen experimentellen Standards galten. 24 Trotz dieser energischen Bemühungen hat die Entwicklung von STAIR und anderen Kriterien noch keinen erkennbaren Einfluss auf die klinische Translation. 25

Bei genauerer Betrachtung ist es nicht schwer zu vermuten, warum Tierversuche mit Schlaganfällen auch mit neuen Richtlinien nicht erfolgreich auf den Menschen übertragen werden können. Standardmedikamente gegen Schlaganfall wirken sich wahrscheinlich auf verschiedene Arten unterschiedlich aus. Es gibt wenig Beweise dafür, dass eine weibliche Ratte, ein Hund oder ein Affe die Physiologie einer menschlichen Frau ausreichend reproduziert. Am wichtigsten ist vielleicht, dass sich die Reproduktion der Vorerkrankungen eines Schlaganfalls bei Tieren als genauso schwierig erweist wie die Reproduktion von Schlaganfallpathologie und -ergebnissen. Zum Beispiel entwickeln die meisten Tiere auf natürliche Weise keine signifikante Arteriosklerose, eine der Hauptursachen für einen ischämischen Schlaganfall. Um die Auswirkungen der Arteriosklerose bei Tieren zu reproduzieren, verschließen Forscher ihre Blutgefäße oder setzen künstlich Blutgerinnsel ein. Diese Interventionen replizieren jedoch nicht die ausgeklügelte Pathologie der Arteriosklerose und ihre zugrunde liegenden Ursachen. Die Reproduktion menschlicher Krankheiten bei Tieren erfordert die Reproduktion der prädisponierend Krankheiten, auch eine große Herausforderung. Die Unfähigkeit, die Krankheit bei Tieren so zu reproduzieren, dass sie in relevanter Hinsicht mit dem menschlichen Schlaganfall deckungsgleich ist, hat zu einer hohen Misserfolgsrate in der Arzneimittelentwicklung beigetragen. Mehr als 114 potenzielle Therapien, die ursprünglich an Tieren getestet wurden, scheiterten in Studien am Menschen. 26

Weitere Beispiele für wiederholte Misserfolge auf der Grundlage von Tiermodellen sind die Medikamentenentwicklung bei Krebs, amyotropher Lateralsklerose (ALS), Schädel-Hirn-Trauma (SHT), Alzheimer-Krankheit (AD) und entzündlichen Erkrankungen. Tierkrebsmodelle, in denen Tumore künstlich induziert werden, waren das grundlegende translationale Modell, das verwendet wurde, um wichtige physiologische und biochemische Eigenschaften bei Krebsentstehung und -ausbreitung zu untersuchen und neue Behandlungen zu bewerten. Dennoch bestehen erhebliche Einschränkungen in der Fähigkeit der Modelle, den komplexen Prozess der menschlichen Karzinogenese getreu wiederzugeben. 27 Diese Einschränkungen werden durch die hohe klinische Versagensrate von Krebsmedikamenten (unter den höchsten aller Krankheitskategorien) belegt. 28 Analysen von ALS-Modellen von gewöhnlichen Mäusen zeigen signifikante Unterschiede zu menschlicher ALS. 29 Die Unfähigkeit von ALS-Tiermodellen, positive Auswirkungen auf Menschen mit ALS vorherzusagen, ist bekannt. 30 Mehr als zwanzig Medikamente sind in klinischen Studien gescheitert, und das einzige von der US-amerikanischen Food and Drug Administration (FDA) zugelassene Medikament zur Behandlung von ALS ist Riluzol, das einen bemerkenswert geringen Nutzen für das Überleben der Patienten zeigt. 31 Tiermodelle waren auch nicht in der Lage, die Komplexität des menschlichen SHT zu reproduzieren. 32 2010 haben Maas et al. berichteten über 27 große klinische Phase-3-Studien und 6 unveröffentlichte Studien bei TBI, die alle keinen Nutzen für den Menschen zeigten, nachdem sie bei Tieren einen Nutzen gezeigt hatten. 33 Darüber hinaus wurden selbst nach erfolgreichem Tierversuch etwa 172 bzw. 150 Fehlschläge bei der Arzneimittelentwicklung bei der Behandlung von AD 34 beim Menschen bzw. entzündlichen Erkrankungen 35 festgestellt.

Die hohe klinische Misserfolgsrate in der Arzneimittelentwicklung über alle Krankheitskategorien hinweg beruht zumindest teilweise auf der Unfähigkeit, menschliche Krankheiten bei Tieren angemessen zu modellieren, und der schlechten Vorhersagbarkeit von Tiermodellen. 36 Eine bemerkenswerte systematische Übersichtsarbeit, die 2007 veröffentlicht wurde, verglich die Ergebnisse von Tierversuchen mit den Ergebnissen klinischer Studien zu Interventionen, die auf die Behandlung von Kopfverletzungen, Atemnotsyndrom, Osteoporose, Schlaganfall und Blutungen abzielten. 37 Die Studie ergab, dass die Ergebnisse von Mensch und Tier nur in der Hälfte der Fälle übereinstimmten. Mit anderen Worten, die Tierversuche waren nicht wahrscheinlicher als ein Münzwurf, um vorherzusagen, ob diese Eingriffe dem Menschen nützen würden.

Im Jahr 2004 schätzte die FDA, dass 92 Prozent der Medikamente, die präklinische Tests bestehen, einschließlich “pivotal”-Tiertests, nicht auf den Markt kommen. 38 Neuere Analysen deuten darauf hin, dass trotz der Bemühungen, die Vorhersagbarkeit von Tierversuchen zu verbessern, die Fehlerquote tatsächlich gestiegen ist und nun näher bei 96 Prozent liegt. 39 Die Hauptursachen für das Scheitern sind mangelnde Wirksamkeit und Sicherheitsprobleme, die durch Tierversuche nicht vorhergesagt wurden. 40

Wenn ein Tiermodell als mangelhaft befunden wird, werden normalerweise verschiedene Gründe angeführt, um zu erklären, was schief gelaufen ist – schlechte Methodik, Veröffentlichungsverzerrung, Mangel an vorbestehenden Krankheiten und Medikamenten, falsches Geschlecht oder Alter usw. Diese Faktoren müssen sicherlich berücksichtigt werden, und die Anerkennung jedes möglichen Unterschieds zwischen dem Tiermodell und der menschlichen Krankheit motiviert zu erneuten Bemühungen, diese Unterschiede zu beseitigen. Infolgedessen werden durch solche Bemühungen manchmal wissenschaftliche Fortschritte erzielt. Die hohe Misserfolgsrate bei der Arzneimittelprüfung und -entwicklung trotz der Versuche, Tierversuche zu verbessern, deutet jedoch darauf hin, dass diese Bemühungen nicht ausreichen, um die Hindernisse für eine erfolgreiche Übersetzung zu überwinden, die mit der Verwendung von Tieren verbunden sind. Zu oft wird die gut begründete Vorstellung ignoriert, dass diese Modelle aus den hier zusammengefassten Gründen an sich keine Relevanz für menschliche Krankheiten haben und daher sehr unwahrscheinlich sind, nützliche Informationen über menschliche Krankheiten zu liefern. 41

Interspezies-Unterschiede in Physiologie und Genetik

Selbst wenn eine beträchtliche Übereinstimmung zwischen einem Tiermodell und seiner entsprechenden menschlichen Erkrankung nachgewiesen werden sollte, würden speziesspezifische Unterschiede in Physiologie, Verhalten, Pharmakokinetik und Genetik die Verlässlichkeit von Tierversuchen selbst nach erheblichen Investitionen in die Verbesserung solcher Studien erheblich einschränken. Bei Rückenmarksverletzungen zum Beispiel variieren die Ergebnisse von Medikamententests je nachdem, welche Spezies und sogar welcher Stamm innerhalb einer Spezies verwendet wird, aufgrund zahlreicher Interspezies und Interstamm-Unterschiede in Neurophysiologie, Anatomie und Verhalten. 42 Die Mikropathologie von Rückenmarksverletzungen, Verletzungsreparaturmechanismen und Erholung nach einer Verletzung variiert stark zwischen verschiedenen Ratten- und Mäusestämmen. Eine systematische Überprüfung ergab, dass selbst bei den standardisierten und methodisch überlegenen Tierversuchen die Testergebnisse zur Bewertung der Wirksamkeit von Methylprednisolon zur Behandlung von Rückenmarksverletzungen zwischen den Tierarten erheblich variierten. 43 Dies legt nahe, dass Faktoren, die der Verwendung von Tieren inhärent sind, für einige der Hauptunterschiede in den Ergebnissen verantwortlich sind.

Sogar Ratten desselben Stammes, die von verschiedenen Lieferanten bezogen wurden, liefern unterschiedliche Testergebnisse. 44 In einer Studie variierten die Reaktionen auf 12 verschiedene Verhaltensmaße der Schmerzempfindlichkeit, die wichtige Marker für Rückenmarksverletzungen sind, bei 11 Mäusestämmen, ohne eindeutige Muster, die eine Vorhersage der Reaktion der einzelnen Stämme erlaubten. 45 Diese Unterschiede beeinflussten, wie die Tiere auf die Verletzung und auf experimentelle Therapien reagierten. Es könnte gezeigt werden, dass ein Medikament einem Mäusestamm bei der Genesung hilft, einem anderen jedoch nicht. Trotz jahrzehntelanger Verwendung von Tiermodellen hat sich in klinischen Studien bisher kein einziger neuroprotektiver Wirkstoff, der Rückenmarksverletzungen in Tierversuchen besserte, als wirksam erwiesen. 46

Ein weiteres Beispiel für die Bedeutung physiologischer Unterschiede zwischen den Arten ist eine Studie aus dem Jahr 2013, die berichtet, dass die Mausmodelle, die ausgiebig zur Untersuchung menschlicher entzündlicher Erkrankungen (bei Sepsis, Verbrennungen, Infektionen und Traumata) verwendet wurden, irreführend waren. Die Studie ergab, dass sich Mäuse in ihren Reaktionen auf Entzündungszustände stark von Menschen unterscheiden. Mäuse unterschieden sich von Menschen darin, welche Gene an- und ausgeschaltet wurden und in Zeitpunkt und Dauer der Genexpression. Die Mausmodelle unterschieden sich sogar in ihren Antworten voneinander. Die Forscher kamen zu dem Schluss, dass „die Studie eine höhere Priorität hat, um sich auf die komplexeren menschlichen Erkrankungen zu konzentrieren, anstatt sich auf Mausmodelle zu verlassen, um menschliche Entzündungskrankheiten zu untersuchen.“ Die unterschiedlichen genetischen Reaktionen zwischen Mäusen und Menschen sind wahrscheinlich dafür verantwortlich, zumindest in Teil, für die hohe Medikamentenversagensrate. Die Autoren gaben an, dass jede von fast 150 klinischen Studien, in denen die Fähigkeit von Wirkstoffkandidaten getestet wurde, Entzündungsreaktionen bei kritisch kranken Patienten zu blockieren, gescheitert ist.

Auch bei der Regulation der gleichen Gene wurden große Unterschiede deutlich, ein Punkt, der leicht zu erkennen ist, wenn man die Unterschiede zwischen der menschlichen und der Mausleber beobachtet. 48 Konsistente Phänotypen (beobachtbare physikalische oder biochemische Eigenschaften) werden selten durch Modifikation desselben Gens erhalten, selbst bei verschiedenen Mäusestämmen. 49 Die Genregulation kann sich zwischen den Arten erheblich unterscheiden und kann ebenso wichtig sein wie das Vorhandensein oder Fehlen eines bestimmten Gens. Trotz des hohen Grades an Genomkonservierung gibt es kritische Unterschiede in der Reihenfolge und Funktion der Gene zwischen den Arten. Um eine Analogie zu verwenden: Da Klaviere die gleichen Tasten haben, teilen Menschen und andere Tiere (weitgehend) die gleichen Gene. Wir unterscheiden uns hauptsächlich in der Art und Weise, wie die Gene oder Schlüssel exprimiert werden. Wenn wir zum Beispiel die Tasten in einer bestimmten Reihenfolge spielen, hören wir Chopin in einer anderen Reihenfolge, wir hören Ray Charles und in einer noch anderen Reihenfolge, es ist Jerry Lee Lewis. Mit anderen Worten, die gleichen Schlüssel oder Gene werden exprimiert, aber ihre unterschiedliche Reihenfolge führt zu deutlich unterschiedlichen Ergebnissen.

In Anbetracht der inhärenten genetischen Unterschiede zwischen den Arten als Barriere für die Translation haben die Forscher großen Enthusiasmus für genetisch veränderte (GV) Tiere zum Ausdruck gebracht, einschließlich transgener Mäusemodelle, bei denen menschliche Gene in das Mausgenom eingefügt werden. Wenn jedoch ein menschliches Gen in Mäusen exprimiert wird, wird es wahrscheinlich anders funktionieren als beim Menschen, da es von physiologischen Mechanismen beeinflusst wird, die bei Mäusen einzigartig sind. So fehlt beispielsweise bei Mäusen ein wichtiges Protein, das den Blutzucker beim Menschen steuert. 50 Als das menschliche Gen, das dieses Protein herstellt, in genetisch veränderten Mäusen exprimiert wurde, hatte es den gegenteiligen Effekt wie beim Menschen: Es verursachte Verlust der Blutzuckerkontrolle bei Mäusen. Die Verwendung von GV-Mäusen hat es versäumt, menschliche Krankheiten erfolgreich zu modellieren und in vielen Krankheitskategorien einen klinischen Nutzen zu erzielen. 51 Vielleicht ist der Hauptgrund, warum gv-Tiere wahrscheinlich nicht viel erfolgreicher sind als andere Tiermodelle in der translationalen Medizin, die Tatsache, dass die “humanisierten” oder veränderten Gene immer noch in nichtmenschlichen Tieren vorhanden sind.

In vielen Fällen werden nichtmenschliche Primaten (NHPs) anstelle von Mäusen oder anderen Tieren verwendet, in der Erwartung, dass NHPs menschliche Ergebnisse besser nachahmen. Es gab jedoch genügend Übersetzungsfehler, um diesen Optimismus zu untergraben. Beispielsweise konnten NHP-Modelle die wichtigsten Merkmale der Parkinson-Krankheit nicht reproduzieren, sowohl in der Funktion als auch in der Pathologie. 52 Mehrere Therapien, die sowohl in NHPs als auch in Rattenmodellen der Parkinson-Krankheit vielversprechend erschienen, zeigten beim Menschen enttäuschende Ergebnisse. 53 Die Kampagne, Millionen von Frauen eine Hormonersatztherapie (HRT) zur Vorbeugung von Herz-Kreislauf-Erkrankungen zu verschreiben, basierte zu einem großen Teil auf Experimenten mit NHPs. HRT ist jetzt bekannt Zunahme das Risiko dieser Erkrankungen bei Frauen. 54

Die HIV/AIDS-Impfstoffforschung unter Verwendung von NHPs stellt einen der bemerkenswertesten Fehler bei der Übersetzung von Tierversuchen dar. Der Entwicklung von NHP-Modellen (einschließlich Schimpansen) von HIV wurden enorme Ressourcen und jahrzehntelange Zeit gewidmet. Doch alle von etwa 90 HIV-Impfstoffen, die bei Tieren erfolgreich waren, sind beim Menschen gescheitert. 55 Nachdem der HIV-Impfstoff gp120 in klinischen Studien trotz positiver Ergebnisse bei Schimpansen gescheitert war, a BMJ Artikel kommentierte, dass wichtige Unterschiede zwischen NHPs und Menschen mit HIV die Forscher in die Irre führten und sie auf unproduktive experimentelle Pfade führten. 56 Gp120 konnte HIV, das in Zellkultur gezüchtet und getestet wurde, nicht neutralisieren. Da das Serum Schimpansen jedoch vor einer HIV-Infektion schützte, wurden zwei klinische Phase-3-Studien durchgeführt 57 — ein klares Beispiel dafür, dass Erwartungen, dass NHP-Daten prädiktiver sind als Daten aus anderen (in diesem Fall Zellkultur-) Testmethoden, unproduktiv sind und schädlich. Trotz der wiederholten Misserfolge werden NHPs (jedoch nicht Schimpansen oder andere Menschenaffen) häufig für die HIV-Forschung verwendet.

Die implizite Annahme, dass NHP-Daten (und tatsächlich alle Tierdaten) zuverlässig sind, hat auch zu erheblichem und nicht zu rechtfertigenden menschlichen Leiden geführt. Zum Beispiel wurden freiwillige klinische Studienteilnehmer für gp120 einem unnötigen Schadensrisiko ausgesetzt, weil sie unbegründetes Vertrauen in NHP-Experimente hatten. Zwei wegweisende Studien mit Tausenden von Frauen in den Wechseljahren, die mit HRT behandelt wurden, wurden aufgrund des erhöhten Schlaganfall- und Brustkrebsrisikos vorzeitig beendet. 58 Im Jahr 2003 war Elan Pharmaceuticals gezwungen, eine klinische Phase-2-Studie vorzeitig abzubrechen, als festgestellt wurde, dass ein in der Prüfung befindlicher AD-Impfstoff bei Menschen zu einer Schwellung des Gehirns führte. Bei gentechnisch veränderten Mäusen oder NHPs wurden keine signifikanten Nebenwirkungen festgestellt. 59

In einem weiteren Beispiel für menschliches Leiden infolge von Tierversuchen wurde 2006 sechs menschlichen Freiwilligen ein immunmodulatorisches Medikament, TGN 1412, injiziert Sturm, der zu einem katastrophalen systemischen Organversagen führte. Die Verbindung wurde entwickelt, um das Immunsystem zu dämpfen, aber sie hatte die Gegenteil Wirkung beim Menschen. Vor dieser ersten Studie am Menschen wurde TGN 1412 an Mäusen, Kaninchen, Ratten und NHPs ohne negative Auswirkungen getestet. NHPs wurden auch Toxizitätsstudien mit wiederholter Gabe unterzogen und erhielten mindestens vier aufeinanderfolgende Wochen lang das 500-Fache der Humandosis. 61 Keines der NHPs zeigte die schädlichen Wirkungen, die Menschen fast unmittelbar nach Erhalt winziger Mengen des Testarzneimittels zeigten.Cynomolgus- und Rhesusaffen wurden speziell ausgewählt, weil ihre CD28-Rezeptoren eine ähnliche Affinität zu TGN 1412 wie menschliche CD28-Rezeptoren zeigten. Auf der Grundlage solcher Daten wurde zuversichtlich gefolgert, dass die mit diesen NHPs erhaltenen Ergebnisse das Ansprechen auf Arzneimittel beim Menschen am zuverlässigsten vorhersagen würden – eine Schlussfolgerung, die sich als verheerend falsch erwies.

Wie die Studie zu HIV/AIDS, TGN 1412 und anderen Erfahrungen zeigt, sind 62 Experimente mit NHPs nicht unbedingt vorhersagender für menschliche Reaktionen als Experimente mit anderen Tieren. Die wiederholten Misserfolge bei der Übersetzung von Studien mit NHPs täuschen Argumente für die Verwendung von irgendein nichtmenschliche Spezies, um die menschliche Physiologie und Krankheiten zu untersuchen und mögliche Behandlungen zu testen. Wenn Experimente mit Schimpansen und anderen NHPs, unseren engsten genetischen Verwandten, unzuverlässig sind, wie können wir dann erwarten, dass die Forschung mit anderen Tieren zuverlässig ist? Das Fazit ist, dass Tierversuche, unabhängig von der verwendeten Spezies oder der Art der durchgeführten Krankheitsforschung, höchst unzuverlässig sind und zu wenig Vorhersagekraft haben, um die daraus resultierenden Schadensrisiken für den Menschen zu rechtfertigen, aus Gründen, die ich jetzt erkläre.


9.6: Prüfung der Wirksamkeit von Arzneimitteln - Biologie

Bei Infektionskrankheiten ist eine schnelle und genaue Identifizierung des Erregers für eine wirksame Behandlung und Behandlung von entscheidender Bedeutung, aber die Diagnose bleibt eine Herausforderung, insbesondere in Gebieten mit begrenzten Ressourcen. Methoden zum genauen Nachweis von Krankheitserreger-Nukleinsäuren können robuste, genaue, schnelle und hochempfindliche Technologien für die Point-of-Care-Diagnose von Krankheitserregern bereitstellen und somit Informationen liefern, die für das Krankheitsmanagement und die Behandlung von unschätzbarem Wert sind. Für den Nachweis von Krankheitserregern wurden mehrere Technologien, meist auf PCR-Basis, eingesetzt, diese erfordern jedoch teure Reagenzien und Ausrüstung sowie qualifiziertes Personal. CRISPR/Cas-Systeme wurden aufgrund ihrer Fähigkeit, spezifische DNA- und RNA-Sequenzen genau zu erkennen und zu spalten, für die Genom-Editierung verwendet. Darüber hinaus weisen bestimmte CRISPR/Cas-Systeme, einschließlich Orthologe von Cas13, Cas12a und Cas14 nach der Erkennung der Zielsequenz, begleitende unspezifische katalytische Aktivitäten auf, die für den Nukleinsäurenachweis verwendet werden können, beispielsweise durch Abbau einer markierten Nukleinsäure, um ein fluoreszierendes . zu erzeugen Signal. CRISPR/Cas-Systeme sind für Multiplexing geeignet, wodurch ein einzelner diagnostischer Test mehrere Ziele bis hin zu attomolaren (10–18 mol/l) Konzentrationen von Zielmolekülen identifizieren kann. Die Entwicklung von Geräten, die CRISPR/Cas mit Lateral-Flow-Systemen koppeln, kann eine kostengünstige, genaue, hochempfindliche und im Feld einsetzbare Diagnostik ermöglichen. Diese Sensoren haben unzählige Anwendungen, von der menschlichen Gesundheit bis zur Landwirtschaft. In diesem Aufsatz diskutieren wir die jüngsten Fortschritte auf dem Gebiet der CRISPR-basierten Biosensortechnologien und heben Erkenntnisse über deren potenzielle Verwendung in einer Vielzahl von Anwendungen hervor.

Briefe
Intelligente mikrobielle Zellen koppeln Katalyse und Sensorik, um eine Hochdurchsatz-Selektion einer Organophosphat-Hydrolase zu ermöglichen

Das Enzym-Engineering für den Funktionsgewinn erfordert die effiziente Navigation durch einen großen kombinatorischen Sequenzraum. Typischerweise sind viele Mutationen erforderlich, um signifikante Verbesserungen zu erzielen, während eine einzelne „schlechte“ Mutation das Enzym inaktivieren kann. Um ein Hochdurchsatz-Screening zu etablieren und eine verbesserte Auflösung zwischen zwei Varianten zu erreichen, wurden genetische Bibliotheken des Organophosphat-Hydrolase-Enzyms Paraoxonase 1 (PON1) schnell über einen konstruierten positiven Feedback-Kreislauf gescreent: ein p-Nitrophenol (PNP)-spezifischer Transkriptionsfaktor (TF ) regulierte die Expression von PON1, die den Paraoxonabbau und die PNP-Produktion katalysierte. Seltene aktive Mutantenkolonien, die durch einfache visuelle Fluoreszenz einer PON1-grün fluoreszierenden Protein (GFP)-Fusion gepickt wurden, wurden charakterisiert. In einer einzigen Screening-Runde ermöglichte ein hoher Durchsatz (im Bibliotheksmaßstab) die Entdeckung einer verstärkten Paraoxon-Abbauaktivität in PON1, einschließlich strukturell unerwarteter Mutationen.

Mikrobielle Synthese von Human-Hormon Melatonin im Grammbereich
  • Hao Luo* ,
  • Konstantin Schneider,
  • Ulla Christensen,
  • Yang Lei,
  • Markus Herrgard und
  • Bernhard Ø. Palsson

Melatonin ist ein kommerziell attraktives, von Tryptophan abgeleitetes Hormon. Hier beschreiben wir einen Bioprozess zur Herstellung von Melatonin unter Verwendung von Escherichia coli zu hohen Titern. Der erste gentechnisch veränderte Stamm produzierte 0,13 g/l Melatonin aus Tryptophan unter Fed-Batch-Fermentationsbedingungen. Eine 4-fache Verbesserung des Melatonin-Titers wurde außerdem erreicht durch (1) Protein-Engineering der geschwindigkeitsbestimmenden Tryptophan-Hydroxylase zur Verbesserung der 5-Hydroxytryptophan-Biosynthese und (2) chromosomale Integration der aromatischen Aminosäure-Decarboxylase, um die Bildung von Nebenprodukten zu begrenzen und die Gene zu minimieren Toxizität für die Wirtszelle. Die Fermentationsoptimierung verbesserte den Melatonin-Titer um ein zusätzliches 2-faches. Die Deletion von yddG, einem Tryptophan-Exporteur, zeigte einen zusätzlichen positiven Effekt. Der endgültige gentechnisch veränderte Stamm produzierte ∼ 2,0 g/l Melatonin mit extern ergänztem Tryptophan und ∼ 1,0 g/l mit Glukose als einziger Kohlenstoffquelle für die Tryptophanversorgung. Diese Studie legt den Grundstein für die Weiterentwicklung eines kommerziellen Melatonin-produzierenden E. coli-Stammes.

Funktionelle Identifizierung von zwei Arten von Carotin-Hydroxylasen aus der Grünalge Dunaliella bardawil Reich an Lutein
  • Ming Hua Liang ,
  • Hong Xie,
  • Hao-Hong Chen,
  • Zhi-Cong Liang und
  • Jian-Guo Jiang*

Die salztolerante einzellige Alge Dunaliella bardawil FACHB-847 kann große Mengen Lutein akkumulieren, aber die zugrunde liegende Ursache der massiven Luteinakkumulation ist noch unbekannt. In dieser Studie wurden aus D. bardawil Gene kloniert, die für zwei Arten von Carotin-Hydroxylasen kodieren, d. h. β-Carotin-Hydroxylase (DbBCH) und Cytochrom-P450-Carotinoid-Hydroxylase (DbCYP97s DbCYP97A, DbCYP97B und DbCYP97C). Ihre Substratspezifitäten und Enzymaktivitäten wurden durch funktionelle Komplementationsassays in Escherichia coli getestet. Es wurde gezeigt, dass DbBCH die Hydroxylierung der β-Ringe von β- und α-Carotin katalysieren kann und einen geringen Gehalt an ε-Hydroxylase aufweist. Im Gegensatz zu CYP97A aus höheren Pflanzen konnte DbCYP97A β-Carotin nicht hydroxylieren. DbCYP97A und DbCYP97C zeigten eine hohe Hydroxylase-Aktivität gegenüber dem β-Ring bzw. ε-Ring von α-Carotin. DbCYP97B zeigte eine geringe Aktivität gegenüber dem β-Ring von α-Carotin. Die hohe Akkumulation von Lutein in D. bardawil kann auf die vielfältigen Wege der Lutein-Biosynthese zurückzuführen sein, die aus α-Carotin mit Zeinoxanthin oder α-Cryptoxanthin als Zwischenstufen durch DbBCH und DbCYP97s erzeugt wird. Zusammenfassend liefert diese Studie Erkenntnisse zum Verständnis der zugrunde liegenden Ursache für die hohe Produktion von Lutein in der halophilen Grünalge D. bardawil FACHB-847.

An der Schraube drehen: Entwicklung extremer pH-Beständigkeit in Escherichia coli durch kombinatorische synthetische Operons
  • Guilherme M. V. de Siqueira,
  • Rafael Silva-Rocha und
  • Maria-Eugenia Guazzaroni*

Die Einführung von Mikroorganismen als Plattformen für eine nachhaltige biobasierte Produktion erfordert, dass Wirtszellen in der Lage sind, rauen Bedingungen standzuhalten, die normalerweise weit von denen entfernt sind, in denen diese Organismen von Natur aus an das Gedeihen angepasst sind. Allerdings können neuartige Überlebensmechanismen, die durch die Untersuchung von Mikrobiomen aus extremen Lebensräumen entdeckt wurden, genutzt werden, um die mikrobielle Robustheit unter den strengen Bedingungen zu verbessern, die für verschiedene industrielle Anwendungen erforderlich sind. In dieser Arbeit wurden Ansätze der synthetischen Biologie verwendet, um eine verbesserte Säureresistenz in Escherichia coli durch die Charakterisierung einer Sammlung einzigartiger Operons zu erzeugen, die aus kombinatorischen Anordnungen von drei neuen Genen aus einer extremen Umgebung und drei synthetischen Ribosomenbindungsstellen besteht. Die hier präsentierten Ergebnisse veranschaulichen die Wirksamkeit der Kombination verschiedener metagenomischer Gene für Resistenz in synthetischen Operons, da die Expression dieser Gencluster den Überlebensprozentsatz von Zellen, die einem sauren Schock in minimalem Medium bei pH 1,9 unter aeroben Bedingungen ausgesetzt waren, um das Hundertfache erhöhte.

Umfassende Analyse genomischer Safe Harbors als Zielstellen für die stabile Expression des heterologen Gens in HEK293-Zellen
  • Seunghyeon Shin ,
  • Su Hyun Kim,
  • Gesungener Wook Shin ,
  • Lise Marie Grav,
  • Lasse Ebdrup Pedersen,
  • Jae Seong Lee* , und
  • Gyun Min Lee*

Menschliche Zelllinien werden aufgrund ihrer menschlichen Glykosylierungsmaschinerie zunehmend als Wirtszellen verwendet, um therapeutische Glykoproteine ​​herzustellen. In dem Versuch, eine Plattform zur Erzeugung isogener humaner Zelllinien zu entwickeln, die therapeutische Proteine ​​basierend auf einer gezielten Integration produzieren, wurden drei bekannte humane genomische sichere Häfen (GSHs) – AAVS1, CCR5 und humane ROSA26-Loci – hinsichtlich der Transgenexpression evaluiert Konzentration und Stabilität in humanen embryonalen Nierenzellen (HEK293). Unter den drei GSHs zeigte der AAVS1-Locus die höchste eGFP-Expression mit der höchsten Homogenität. Die Transgenexpression am AAVS1-Locus wurde ohne Selektion für ungefähr 3 Monate aufrechterhalten. Darüber hinaus zeigte der CMV-Promotor die höchste Expression, gefolgt von den EF1α-, SV40- und TK-Promotoren am AAVS1-Locus. Masterzelllinien wurden durch CRISPR/Cas9-vermittelte Integration des Landeplatzes in den AAVS1-Locus erstellt und zur schnelleren Erzeugung rekombinanter Zelllinien verwendet, die therapeutische Proteine ​​mit Rekombinase-vermitteltem Kassettenaustausch produzieren.

Automatisierte kontinuierliche Evolution von Proteinen in Vivo
  • Ziwei Zhong,
  • Brandon G. Wong ,
  • Arjun Ravikumar,
  • Garri A. Arzumanyan ,
  • Ahmad S. Khalil* , und
  • Chang C. Liu*

Wir präsentieren die automatisierte kontinuierliche Evolution (ACE), eine Plattform für die freihändige gerichtete Evolution von Biomolekülen. ACE kombiniert OrthoRep, ein genetisches System für die kontinuierliche gezielte Mutagenese von vom Benutzer ausgewählten Genen in vivo, mit eVOLVER, einem skalierbaren und automatisierten kontinuierlichen Kulturgerät zur präzisen Multiparameter-Regulierung von Wachstumsbedingungen. Durch die Implementierung von Echtzeit-Feedback-gesteuertem Tuning der Selektionsstringenz mit eVOLVER durchquerten interessierende Gene, die auf OrthoRep kodiert sind, autonom adaptive Multimutationspfade, um gewünschte Funktionen, einschließlich Medikamentenresistenz und verbesserte Enzymaktivität, zu erreichen. Die Dauerhaftigkeit, Skalierbarkeit und Geschwindigkeit der biomolekularen Evolution mit ACE sollte auf das Protein-Engineering sowie prospektive Studien darüber angewendet werden, wie Selektionsparameter und Zeitpläne die Anpassung beeinflussen.

Pattern Engineering von lebenden Bakterienkolonien mit meniskusgesteuerten Fluidikkanälen
  • Wassili Kantsler* ,
  • Elena Ontañón-McDonald ,
  • Cansu Kuey,
  • Manjari J. Ghanshyam ,
  • Maria Chiara Roffin und
  • Muehiro Asally*

Die Entwicklung adaptiver, nachhaltiger und dynamischer Biomaterialien ist eine bevorstehende Mission der synthetischen Biologie. Die Entwicklung räumlich organisierter Bakteriengemeinschaften hat das Potenzial, solche Biometamaterialien zu entwickeln. Eine Herausforderung bleibt jedoch die Generierung von Wohnmustern mit Präzision, Robustheit und einer geringen technischen Barriere. Hier präsentieren wir eine einfach implementierbare Technik zur Musterung lebender Bakterienpopulationen unter Verwendung eines kontrollierten meniskusgesteuerten Fluidiksystems namens MeniFluidics. Wir demonstrieren Multiskalenmusterung von Biofilmkolonien und Schwärmen mit Submillimeterauflösung. Durch die schnellere Ausbreitung von Bakterien in Flüssigkeitskanälen ermöglicht MeniFluidics kontrollierten Bakterienkolonien sowohl räumlich als auch zeitlich, fluoreszenzmarkierte Bacillus subtilis-Stämme in einem konvergierten Muster zu organisieren und dynamische Wirbelmuster in eingegrenzten Bakterienschwärmen zu bilden. Die Robustheit, Genauigkeit und die geringe technische Barriere von MeniFluidics bieten ein Werkzeug für die Weiterentwicklung und Erfindung neuer lebender Materialien, die mit gentechnisch veränderten Systemen kombiniert werden können und die Grundlagenforschung zu ökologischen, evolutionären und physikalischen Wechselwirkungen zwischen Mikroben ergänzen.

Dynamische Zellprogrammierung mit Quorum Sensing-gesteuerter CRISPRi-Schaltung
  • Yilan Liu,
  • Jinjin Chen,
  • David Crisante,
  • Jhoselyn Marisol Jaramillo Lopez und
  • Radhakrishnan Mahadevan*

Die Synthetische Biologie ermöglicht schnelle Fortschritte in den Bereichen Biomanufacturing und Live-Therapeutika. Dynamische Schaltkreise, die verwendet werden können, um zelluläre Ressourcen und das Verhalten mikrobieller Gemeinschaften zu regulieren, stellen einen bestimmenden Schwerpunkt der synthetischen Biologie dar und haben enormes Interesse geweckt. Die existierenden dynamischen Schaltkreise sind jedoch meistens von der Geneditierung abhängig oder basieren auf Zelllyse, was ihre breite und bequeme Anwendung einschränkt, und in einigen Fällen können solche auf Lyse basierenden Schaltkreise aufgrund der Evolution an genetischer Instabilität leiden. Es gibt nur begrenzte Forschung zu Quorum Sensing-unterstütztem CRISPRi, das unabhängig von der Genbearbeitung funktionieren kann. Hier haben wir eine Reihe von Quorum-Sensing-kontrollierten CRISPRi-Systemen (Q-CRISPRi) konstruiert, die Bakterien dynamisch programmieren können, indem sie maßgeschneiderte sgRNA verwenden, ohne Zelllyse einzuführen. Wir haben Q-CRISPRi-Schaltkreise erfolgreich angewendet, um Genexpression, Populationsdichte, Phänotyp, physikalische Eigenschaften und die Zusammensetzung der Gemeinschaft von mikrobiellen Konsortien dynamisch zu programmieren. Die hier berichteten Strategien stellen Methoden für die dynamische Zellprogrammierung dar und könnten bei der Programmierung industriell und medizinisch wichtiger Mikroorganismen wirksam sein, um deren Stoffwechsel und Verhalten besser zu kontrollieren.

Artikel
Ein auf kleine Moleküle ansprechender Riboswitch ermöglicht die bedingte Induktion der viralen Vektor-vermittelten Genexpression bei Mäusen
  • Benjamin Ströbel,
  • Matthias J. Düchs ,
  • Dragica Blazevic,
  • Philipp Rechtsteiner,
  • Clemens Braun,
  • Katja S. Baum-Kroker ,
  • Bernhard Schmid,
  • Thomas Ciossek,
  • Dirk Gottschling,
  • Jörg S. Hartig, und
  • Sebastian Kreuz*

Adeno-assoziierte virale (AAV) Vektor-vermittelte Gentherapie birgt großes Potenzial für zukünftige medizinische Anwendungen. Um jedoch eine sicherere und breitere Anwendbarkeit zu ermöglichen und eine patientenorientierte Versorgung zu ermöglichen, sollte die therapeutische Proteinexpression kontrollierbar sein, idealerweise durch ein oral verabreichtes Medikament. Die Verwendung von Systemen auf Proteinbasis wird aufgrund der potentiellen Immunogenität und des begrenzten Kodierungsraums von AAV als eher unerwünscht angesehen. Ligandenabhängige Riboschalter sind dagegen klein und zeichnen sich durch einen attraktiven Wirkmechanismus aus, der auf mRNA-Selbstspaltung basiert, unabhängig von koexprimierten Fremdproteinen. Obwohl es sich um einen vielversprechenden Ansatz handelt, haben die bisher verfügbaren Schalter bei Tieren nur eine mäßige Wirksamkeit gezeigt. Insbesondere ON-Schalter, die nach Ligandenverabreichung die Transgenexpression induzieren, haben bisher eher enttäuschende Ergebnisse erzielt. Hier präsentieren wir die Verwendung des zuvor beschriebenen Tetracyclin-abhängigen Ribozyms K19 zur Kontrolle der AAV-vermittelten Transgenexpression in Mäusen. Mit diesem Werkzeugschalter liefern wir einen ersten Beweis für die Machbarkeit klinisch gewünschter Schlüsselfunktionen, einschließlich Multiorganfunktionalität, potenter Regulation (bis zu 15-fache Induktion), Reversibilität und der Möglichkeit, die Expression fein abzustimmen und wiederholt zu induzieren. Die systematische Bewertung von Liganden- und Reporterprotein-Plasmaspiegeln ermöglichte außerdem die Charakterisierung von pharmakokinetisch-pharmakodynamischen Beziehungen. Somit unterstützen unsere Ergebnisse nachdrücklich zukünftige Bemühungen, technisch konstruierte Riboschalter für Anwendungen in der klinischen Gentherapie zu entwickeln.

Käfigaktivatoren künstlicher allosterischer Proteinbiosensoren
  • Selvakumar Edwardraja,
  • Zhong Guo,
  • Jason Whitfield,
  • Ignacio Retamal Lantadilla ,
  • Wayne A. Johnston ,
  • Patricia Walden,
  • Claudia E. Vickers und
  • Kirill Alexandrov*

Die Fähigkeit von Proteinen, nicht verwandte biochemische Inputs und Outputs ineinander umzuwandeln, liegt den meisten Energie- und Informationsverarbeitungen in der Biologie zugrunde. Ein üblicher Umwandlungsmechanismus beinhaltet eine Konformationsänderung eines Proteinrezeptors als Reaktion auf eine Ligandenbindung oder eine kovalente Modifikation, was zu einer allosterischen Aktivitätsmodulation der Effektordomäne führt. Der rationale Entwurf solcher Systeme ist ein zentrales Ziel der synthetischen Biologie und des Protein-Engineering. Ein sensorisches Zweikomponentensystem, das auf dem Gerüst von Modulen in Gegenwart eines Analyten basiert, ist eine der am besten verallgemeinerbaren Biosensorarchitekturen. Ein inhärentes Problem solcher Systeme ist die Abhängigkeit der Reaktion von den absoluten und relativen Konzentrationen der Komponenten. Hier verwenden wir das Beispiel von zweikomponentigen sensorischen Systemen basierend auf Calmodulin-betriebenen synthetischen Schaltern, um dieses Problem zu analysieren und zu adressieren. Wir konstruierten „eingesperrte“ Versionen der aktivierenden Domäne, wodurch eine thermodynamische Barriere für die spontane Aktivierung des Systems geschaffen wurde. Wir zeigen, dass die photoaktivierbaren Biosensorarchitekturen bei Konzentrationen von 3 Größenordnungen betrieben werden können und auf elektrochemische, lumineszierende und fluoreszierende Zweikomponenten-Biosensoren anwendbar sind. Wir analysierten die Aktivierungskinetik der photoaktivierbaren Biosensoren und stellten fest, dass der allosterische Schalter im Kern wahrscheinlich die geschwindigkeitsbestimmende Komponente des Systems ist. Diese Ergebnisse liefern eine Anleitung für die vorhersagbare Entwicklung robuster sensorischer Systeme mit Inputs und Outputs der Wahl.

Überwindung der Herausforderungen der Konstruktion von Plasmiden in Megabase-Größe in Escherichia coli
  • Takahito Mukai* ,
  • Tatsuya Yoneji,
  • Kayoko Yamada,
  • Hironobu Fujita,
  • Seia Nara und
  • Masayuki Su'etsugu*

Obwohl Escherichia coli ein beliebtes Werkzeug für die Plasmidkonstruktion war, wurde angenommen, dass dieses Bakterium „ungeeignet“ sei, um ein großes Plasmid mit einer Größe von mehr als 500 Kilobasen zu konstruieren. Wir nahmen an, dass traditionellen Plasmidvektoren möglicherweise einige regulatorische DNA-Elemente fehlen, die für die stabile Replikation und Segregation eines so großen Plasmids erforderlich sind. Außerdem kann die Verwendung einiger weniger ortsspezifischer Rekombinationssysteme das Klonen großer DNA-Segmente erleichtern. Hier zeigen wir zwei Strategien zur Konstruktion von sekundären 1-Megabase (1-Mb)-Chromosomen unter Verwendung neuer bakterieller künstlicher Chromosomen (BAC)-Vektoren. Zunächst wurde das 3-Mb-Genom eines genomreduzierten E. coli-Stammes in zwei Chromosomen (2-Mb und 1-Mb) aufgespalten, von denen das kleinere den Replikationsursprung und den Partitionierungs-Locus des Vibrio tubiashii sekundären hat Chromosom. Diese Methode der Chromosomenspaltung (Flp-POP-Klonen) funktioniert über eine Flippase-vermittelte Exzision, die mit dem Wiederzusammenbau eines gespaltenen Chloramphenicol-Resistenzgens zusammenfällt und die Chloramphenicol-Selektion ermöglicht. Als nächstes entwickelten wir eine neue Klonierungsmethode (oriT-POP-Klonierung) und einen voll ausgestatteten BAC-Vektor (pMegaBAC1H) zur Entwicklung eines 1-Mb-Plasmids.Zwei genomische Regionen von 0,5 Mb wurden nacheinander von zwei Donorstämmen auf einen Empfängerstamm über Konjugation übertragen und durch pMegaBAC1H im Empfängerstamm eingefangen, um ein 1-Mb-Plasmid zu produzieren. Dieses 1-Mb-Plasmid war über Konjugation auf einen anderen E. coli-Stamm übertragbar. Darüber hinaus waren diese 1-Mb-Sekundärchromosomen in vitro durch Verwendung der rekonstituierten E. coli-Chromosomen-Replikationszyklusreaktion (RCR) amplifizierbar. Diese Strategien und Technologien würden beliebte E. coli-Zellen zu einer produktiven Fabrik für Designer-Chromosomen-Engineering machen.

Zweikomponenten-Biosensoren: Enthüllung der Mechanismen vorhersagbarer Abstimmbarkeit

Viele Studien wurden der Entwicklung zellulärer Biosensoren durch die Nutzung intrinsischer natürlicher Sensoren gewidmet. Biosensoren verlassen sich jedoch nicht nur auf die Eingangserkennung, sondern auch auf einen angemessenen Ansprechbereich. Daher ist es oft notwendig, natürliche Systeme vorhersagbar auf die Anforderungen bestimmter Anwendungen abzustimmen. In dieser Studie haben wir die Anpassbarkeit von bakteriellen Zweikomponenten-Biosensoren untersucht, indem wir die Hauptkomponente des Biosensors, d. h. das Rezeptorprotein, moduliert haben. Wir haben ein mathematisches Modell entwickelt, das die funktionelle Beziehung zwischen Rezeptorhäufigkeit und Aktivierungsschwelle, Empfindlichkeit, Dynamikbereich und Betriebsbereich beschreibt. Der definierte mathematische Rahmen ermöglicht das Design der genetischen Architektur eines Zweikomponenten-Biosensors, der mit minimaler Gentechnik bedarfsgerecht arbeiten kann. Um das Modell und seine Vorhersagen experimentell zu validieren, wurde eine Bibliothek von Biosensoren aufgebaut. Die gute Übereinstimmung zwischen theoretischen Designs und experimentellen Ergebnissen zeigt, dass die Modulation der Rezeptorproteinhäufigkeit die Optimierung von Biosensordesigns mit minimaler Gentechnik ermöglicht.

Bakteriophagen-inspirierte wachstumsentkoppelte rekombinante Proteinproduktion in Escherichia coli
  • Patrick Stargardt,
  • Lukas Feuchtenhofer,
  • Monika Cserjan-Puschmann,
  • Gerald Striedner und
  • Jürgen Mairhofer*

Die Modulierung der Ressourcenallokation in Bakterien, um metabolische Bausteine ​​auf die Bildung rekombinanter Proteine ​​anstatt auf die Bildung von Biomasse umzuleiten, bleibt eine große Herausforderung in der Biotechnologie. Hier präsentieren wir einen neuartigen Ansatz für eine verbesserte rekombinante Proteinproduktion (RPP) mit Escherichia coli (E. coli) durch Entkopplung der rekombinanten Proteinsynthese vom Zellwachstum. Wir zeigen, dass die Zellteilung und die Transkription der Wirts-mRNA erfolgreich durch Coexpression eines von Bakteriophagen abgeleiteten E. coli-RNA-Polymerase (RNAP)-Inhibitor-Peptids gehemmt werden können und dass Gene, die von der orthogonalen T7-RNAP übertranskribiert werden, schließlich >55% der Zelltrockenmasse ausmachen können ( CDM). Dieses RNAP-Inhibitor-Peptid bindet die E. coli-RNAP und verhindert daher die σ-Faktor 70-vermittelte Bildung von transkriptional qualifizierten offenen Promotorkomplexen. Dadurch wird die Transkription von -Faktor 70 gesteuerten Wirtsgenen gehemmt und metabolische Ressourcen können ausschließlich für die Synthese des interessierenden Proteins (POI) genutzt werden. Hier ahmen wir die späte Phase der Bakteriophageninfektion nach, indem wir einen von Phagen abgeleiteten xenogenen Regulator koexprimieren, der die Wirtszelle umprogrammiert und dadurch in der Lage ist, die RPP unter industriell relevanten Fed-Batch-Prozessbedingungen im Bioreaktormaßstab signifikant zu verbessern. Wir haben die Produktion mehrerer verschiedener rekombinanter Proteine ​​in verschiedenen Maßstäben (vom Mikromaßstab bis zum 20-l-Fed-Batch-Maßstab) evaluiert und konnten die Gesamt- und löslichen Proteinausbeuten im Vergleich zum Referenz-Expressionssystem E. coli BL21 . um das bis zu 3,4-fache verbessern (DE3). Dieser neuartige Ansatz für wachstumsentkoppelte RPP hat tiefgreifende Auswirkungen auf die Biotechnologie und das Bioengineering und hilft dabei, kostengünstigere und generische Herstellungsverfahren für Biologika und Biomaterialien zu etablieren.

Multikomponenten-Mikrobiosynthese von unnatürlichen cyanobakteriellen Indolalkaloiden
  • Yogan Khatri,
  • Robert M. Hohlmann,
  • Johnny Mendoza,
  • Shasha Li,
  • Andrew N. Lowell ,
  • Haruichi Asahara und
  • David H. Sherman*

Genomsequenzierungs- und Bioinformatik-Tools haben die Identifizierung und Expression einer zunehmenden Zahl kryptischer biosynthetischer Gencluster (BGCs) erleichtert. Die funktionelle Analyse aller Komponenten eines Stoffwechselwegs zur genauen Bestimmung biokatalytischer Eigenschaften bleibt jedoch zeit- und arbeitsintensiv. Eine Möglichkeit, diesen Prozess zu beschleunigen, ist die zellfreie Proteinsynthese im Mikromaßstab (CFPS) für die direkte Gen-zur biochemischen Funktionsanalyse, die selten zur Untersuchung von enzymatischen Mehrkomponentensystemen in spezialisierten Stoffwechselvorgängen eingesetzt wurde. Unser Ziel war es, einen In-vitro-Transkriptions-/Translations-(TT)-Assay zu etablieren, um den Aufbau von aus Cyanobakterien stammenden Hapalindol-artigen Naturstoffen (cNPs) aufgrund ihrer vielfältigen Bioaktivitätsprofile und komplexen strukturellen Diversität zu beurteilen. Unter Verwendung eines CFPS-Systems mit einem Plasmid mit famD2-Prenyltransferase aus Fischerella ambigua UTEX 1903 zeigten wir die Produktion des zentralen prenylierten Zwischenprodukts (3GC) in Gegenwart von exogenem Geranyl-Pyrophosphat (GPP) und cis-Indol-Isonitril. Die weitere Zugabe eines Plasmids mit der famC1 Stig-Cyclase führte zur Synthese der beiden Enzyme FamD2 und FamC1, was durch Proteomikanalyse bestätigt wurde, und katalysierte den Aufbau von 12-epi-Hapalindol U. Weitere Kombinationen von Stig-Cyclasen (FamC1–C4) produzierten Hapalindol U und Hapalindol H, während FisC aus Fischerella sp. SAG46.79 erzeugte 12-epi-Fischerindol U. Das CFPS-System wurde weiter verwendet, um sechs nichtnatürliche halogenierte cis-Indol-Isonitril-Substrate mit FamC1 und FisC zu screenen, und die Reaktionen wurden mittels chemoenzymatischer Synthese skaliert und als 5- und 6- identifiziert. Fluor-12-epi-Hapalindol U bzw. 5- und 6-Fluor-12-epi-fischerindol U. Dieser Ansatz stellt eine effektive Hochdurchsatzstrategie dar, um die funktionelle Rolle biosynthetischer Enzyme aus verschiedenen Naturstoff-BGCs zu bestimmen.

Design und experimentelle Bewertung einer minimalen, harmlosen Wasserzeichenstrategie zur Unterscheidung nahezu identischer DNA- und RNA-Sequenzen
  • Francine J. Boonekamp ,
  • Sofia Daschko,
  • Donna Duiker,
  • Thies Gehrmann,
  • Marcel van den Broek,
  • Maxime den Ridder,
  • Martin Pabst,
  • Vincent Robert,
  • Thomas Abel,
  • Eline D. Postma ,
  • Jean-Marc Daran und
  • Pascale Daran-Lapujade*

Der Bau leistungsfähiger Zellfabriken erfordert einen intensiven und umfangreichen Umbau mikrobieller Genome. Angesichts der schnell steigenden Zahl dieser synthetischen Biologiebemühungen besteht ein zunehmender Bedarf an DNA-Wasserzeichen-Strategien, die die Unterscheidung zwischen synthetischen und nativen Genkopien ermöglichen. Obwohl gut dokumentiert ist, dass die Codon-Nutzung die Translation und höchstwahrscheinlich die mRNA-Stabilität in Eukaryoten beeinflussen kann, untersuchen bemerkenswert wenige quantitative Studien den Einfluss von Wasserzeichen auf die Transkription, Proteinexpression und Physiologie in der beliebten Modell- und Industriehefe Saccharomyces cerevisiae. Die vorliegende Studie, die S. cerevisiae als eukaryotisches Paradigma verwendet, hat eine systematische Strategie entwickelt, implementiert und experimentell validiert, um DNA mit minimalen Veränderungen der Hefephysiologie mit Wasserzeichen zu versehen. Die 13 Gene, die Proteine ​​kodieren, die am Hauptweg der Zuckerverwertung (d. h. Glykolyse und alkoholische Gärung) beteiligt sind, wurden gleichzeitig in einem Hefestamm unter Verwendung der zuvor veröffentlichten Wegtauschstrategie mit einem Wasserzeichen versehen. Der sorgfältige Austausch von Codons dieser natürlich codonoptimierten, stark exprimierten Gene hatte keinen Einfluss auf die Hefephysiologie und veränderte nicht die Transkripthäufigkeit, Proteinhäufigkeit und Proteinaktivität, abgesehen von einer milden Wirkung auf Gpm1. Die bioinformatische Methode markerQuant könnte zuverlässig native von mit Wasserzeichen versehenen Genen und Transkripten unterscheiden. Darüber hinaus ermöglichte das Vorhandensein von Wasserzeichen eine selektive CRISPR/Cas-Genombearbeitung, die speziell auf die native Genkopie abzielte, während die synthetische, mit Wasserzeichen versehene Variante intakt blieb. Diese Studie bietet eine validierte Strategie, um Gene in S. cerevisiae einfach mit einem Wasserzeichen zu versehen.

Zellfreie Bakteriophagengenomsynthese mit kostengünstigen sequenzverifizierten Array-synthetisierten Oligonukleotiden
  • Huiran Yeom,
  • Taehoon-Ryu,
  • Amos Chungwon Lee,
  • Jinsung Noh,
  • Hansaem Lee,
  • Yeongjae Choi,
  • Namphil Kim und
  • Sunghoon Kwon*

Die Synthese von manipulierten Bakteriophagen (Phagen) für den menschlichen Gebrauch hat ein Potenzial für verschiedene Anwendungen, die vom Wirkstoff-Screening unter Verwendung eines Phagen-Displays bis zur klinischen Verwendung unter Verwendung einer Phagentherapie reichen. Das Engineering von Phagen beinhaltet jedoch herkömmlicherweise die Verwendung eines in vivo-Systems, das aufgrund der hohen Virulenz gegenüber dem Wirt und der geringen Transformationseffizienz eine geringe Produktionseffizienz aufweist. Um diese Probleme zu umgehen, hat die De-novo-Phagengenomsynthese unter Verwendung chemisch synthetisierter Oligonukleotide (Oligos) das Potenzial für die Entwicklung von Phagen in einem zellfreien System erhöht. Hier präsentieren wir eine zellfreie, kostengünstige De-novo-Gensynthesetechnologie namens Sniper-Assembly für die Phagengenomkonstruktion. Durch massiv parallele Sequenzierung von Microarray-synthetisierten Oligos generierten und identifizierten wir ungefähr 100 000 klonale DNA-Cluster in vitro und 5000 fehlerfreie in einer zellfreien Umgebung. Um seine praktische Anwendung zu demonstrieren, synthetisierten wir das Genom des Acinetobacter-Phagen AP205 (4268 bp) unter Verwendung von 65 sequenzverifizierten DNA-Klonen. Im Vergleich zu früheren Berichten senkte die Sniper-Assemblierung die Genomsynthesekosten (.0137/bp) durch die Herstellung kostengünstiger sequenzverifizierter DNA.

SRNA-basiertes Screening chromosomaler Gen-Targets und modularer Aufbau Escherichia coli zur hochtitrigen Produktion von aglycosyliertem Immunglobulin G
  • Jinhua Zhang,
  • Yanshu Zhao,
  • Yingxiu Cao,
  • Zhenpeng Yu,
  • Guoping Wang,
  • Yiqun Li,
  • Xiaoqiong Ye,
  • Congfa Li,
  • Xue Lin und
  • Hao-Lied*

Die Produktion des aglycosylierten Immunglobulins G (IgG) in Escherichia coli hat aufgrund seiner analytischen und therapeutischen Anwendungen großes Interesse gefunden. Um den Produktionstiter von IgG zu erhöhen, verwendeten wir zunächst synthetische sRNAs, um eine systematische Analyse der Genexpression auf translationaler Ebene im glykolytischen Weg (Modul 1) und des Tricarbonsäurezyklus (TCA) (Modul 2) durchzuführen, um die kritischen Gene für die effiziente IgG-Produktion. Zweitens, um genügend Aminosäurevorläufer für die Proteinbiosynthese bereitzustellen, wurden Aminosäurebiosynthesewege (Modul 3) verbessert, um die IgG-Produktion zu erleichtern. Nach integriertem Engineering dieser Gene in den drei Modulen (Modul 1, aceF-Modul 2, gltA und acnA-Modul 3, serB) und Optimierung der Fermentationsbedingungen ermöglichten die rekombinanten E. coli einen Titer des vollständig assemblierten IgG von 4,5 ± 0,6 mg/l in Kolbenkulturen und 184 ± 9,2 mg/l im 5 l Fed-Batch-Fermenter mit hoher Zelldichte, der unseres Wissens der höchste berichtete Titer der IgG-Produktion in rekombinanten E. coli ist.

Effiziente Biosynthese niedermolekularer Poly-γ-glutaminsäure basierend auf stereochemischer Regulation in Bacillus amyloliquefaciens
  • Yuanyuan Sha,
  • Yueyuan Huang,
  • Yifan Zhu,
  • Tao Sonne,
  • Zhengshan Luo,
  • Yibin Qiu,
  • Yijing Zhan,
  • Peng Lei,
  • Sha Li, und
  • Hong Xu*

Die niedermolekulare Poly-γ-Glutaminsäure (LMW-γ-PGA) hat aufgrund ihrer vielen potentiellen Anwendungen in Lebensmitteln, Landwirtschaft, Medizin und Kosmetik viel Aufmerksamkeit auf sich gezogen. Der enzymatische Abbau ist ein effizienter Weg für die Synthese von LMW-γ-PGA. Die Stereochemie von γ-PGA begrenzt jedoch den Abbau von γ-PGA. Diese Studie identifiziert die Rolle der γ-PGA-Synthase (pgsA) und der Glutamat-Racemase (racE) bei der Regulierung der γ-PGA-Stereochemie und demonstriert ihre kombinierte Verwendung für die LMW-γ-PGA-Synthese. Zunächst wurde die Expression von pgsA und racE gesteigert, was zu Verbesserungen sowohl des Molekulargewichts (Mw) als auch des d-Glutamat-Anteils von γ-PGA führte. Dann wurde eine optimale Kombination von pgsA, racE und -PGA-Hydrolase pgdS konstruiert, indem die Genursprünge für die Synthese von LMW-γ-PGA ausgetauscht wurden. Schließlich wurde das Mw von γ-PGA auf 6–8 kDa gesenkt, was viel niedriger war als im Fall ohne Umschalten der Stereochemie (20–30 kDa). Diese Studie bietet eine neuartige Strategie zur Kontrolle des Mw von γ-PGA basierend auf der Regulierung der Stereochemie und legt eine solide Grundlage für die Synthese von LMW-γ-PGA.

Entwicklung neuartiger Riboschalter für die Synthetische Biologie in der Grünalge Chlamydomonas
  • Payam Mehrshahi,
  • Ginnie Trinh D.T. Nguyen,
  • Aleix Gorchs Rovira,
  • Andrew Sayer,
  • Marcel Llavero-Pasquina,
  • Michelle Lim Huei Sin ,
  • Elliot J. Medcalf ,
  • Gonzalo I. Mendoza-Ochoa ,
  • Mark A. Scaife und
  • Alison G. Smith*

Riboswitches sind RNA-Regulationselemente, die spezifische Liganden binden, um die Genexpression zu kontrollieren. Aufgrund ihres modularen Aufbaus, bei dem eine ligandensensitive Aptamerdomäne mit einer Expressionsplattform kombiniert wird, bieten Riboschalter einzigartige Werkzeuge für Anwendungen in der synthetischen Biologie. Hier haben wir einen Mutationsansatz gewählt, um funktionell wichtige Nukleotidreste im Thiaminpyrophosphat (TPP)-Riboswitch im THI4-Gen der Modellalge Chlamydomonas reinhardtii zu bestimmen, was uns den Aptamertausch mit THIC-Aptameren aus Chlamydomonas und Arabidopsis thaliana ermöglicht. Diese chimären Riboschalter zeigten eine ausgeprägte Spezifität und einen dynamischen Reaktionsbereich auf verschiedene Liganden. Unsere Studien zeigen die einfache Montage als 5′UTR-DNA-Teile, die Vorhersagbarkeit des Outputs und den Nutzen für die kontrollierte Produktion einer hochwertigen Verbindung in Chlamydomonas. Die einfache Integration von Riboschaltern in aktuelle Designplattformen wird die Generierung genetischer Schaltkreise erleichtern, um die synthetische Biologie und das metabolische Engineering von Mikroalgen voranzutreiben.

Verbesserte Produktion von Apfelsäure in Aspergillus niger durch Aufhebung der Zitronensäureakkumulation und Verbesserung des glykolytischen Flusses

Die mikrobielle Fermentation wurde weithin erforscht, um Apfelsäure herzustellen. Zuvor wurde Aspergillus niger erfolgreich manipuliert, und mit dem Stamm S575 wurde ein hoher Apfelsäuretiter erreicht, aber er produzierte auch einen hohen Anteil an Zitronensäure als Nebenprodukt. Hier wurde die Fähigkeit von A. niger in der Apfelsäure-Biosynthese weiter verbessert, indem die Ansammlung von Zitronensäure beseitigt und der glykolytische Fluss erhöht wurde. Die Charakterisierung von Mutantenvarianten deutete darauf hin, dass die Zerstörung von cexA, einem Gen, das den Zitronensäuretransporter auf der Zellmembran codiert, die Ansammlung von Zitronensäure aufhob. Der cexA-defiziente Stamm S895 zeigte jedoch eine signifikant verringerte Apfelsäureproduktion. Eine weitere Analyse von S895 zeigte, dass das Transkriptionsniveau von Genen, die am Glukosetransport und am glykolytischen Weg beteiligt sind, signifikant reduziert war und die entsprechende Enzymaktivität ebenfalls niedriger war als die von S575. Die individuelle Überexpression von Genen, die den Glukosetransporter MstC und Schlüsselenzyme (Hexokinase HxkA, 6-Phosphofructo-2-kinase PfkA und Pyruvatkinase PkiA) kodieren, die an irreversiblen Reaktionen des Glykolweges beteiligt sind, erhöhte die Apfelsäureproduktion. Dementsprechend wurden Gene von mstC, hxkA, pfkA und pkiA insgesamt in S895 überexprimiert, und der resultierende Stamm S1149 wurde konstruiert. Der Apfelsäuretiter in der Fed-Batch-Fermentation mit S1149 erreichte 201,13 g/l. Im Vergleich zu S575 wurde in S1149 das Nebenprodukt Citronensäure vollständig beseitigt und das Verhältnis Apfelsäure/Glucose von 1,27 auf 1,64 mol/mol erhöht, die bisher höchste Ausbeute, und die Fermentationszeit wurde von 9 auf 8 . verkürzt Tage. Auf diese Weise wurde ein Stamm mit großem industriellem Anwendungspotenzial durch die Generierung von neun Genen in A. niger entwickelt und eine Pilot-Fermentationstechnologie genutzt.

Gentechnik von Oligotropha carboxidovorans Stamm OM5 – ein vielversprechender Kandidat für die aerobe Nutzung von Synthesegas
  • Daniel Siebert* ,
  • Tobias Busche,
  • Aline Y. Metz ,
  • Medina Smaili,
  • Bastian A. W. Queck ,
  • Jörn Kalinowski und
  • Bernhard J. Eikmanns

Aufgrund des Klimawandels und der weltweiten Umweltverschmutzung ist die Entwicklung hoch nachhaltiger Routen für die industrielle Produktion von Basis- und Spezialchemikalien heutzutage von entscheidender Bedeutung. Ein möglicher Ansatz ist der Einsatz von CO2- und CO-verwertenden Mikroorganismen in biotechnologischen Prozessen, um aus Synthesegas (Gemische aus CO2, CO und H2) oder aus C1-haltigen Industrieabgasen wertschöpfende Verbindungen herzustellen. Solche Synthesegas-Fermentationsverfahren sind bereits etabliert, z. B. die Biokraftstoffproduktion unter Verwendung streng anaerober acetogener Bakterien. Aerobe Prozesse können jedoch für die Bildung teurer (ATP-intensiver) Produkte günstig sein. Oligotropha carboxidovorans Stamm OM5 ist ein aerobes carboxidotrophes Bakterium und potenziell ein vielversprechender Kandidat für solche Prozesse. Wir führten hier eine RNA-Seq-Analyse durch, bei der Zellen dieses Organismus verglichen wurden, die heterotroph mit Acetat oder autotroph mit CO2, CO und H2 als Kohlenstoff- und Energiequelle gezüchtet wurden, und fanden heraus, dass eine Vielzahl von chromosomal und nativen Plasmid-kodierten Genen stark unterschiedlich exprimiert wird. Insbesondere Gene und Gencluster, die Proteine ​​kodieren, die für autotrophes Wachstum (CO2-Fixierung über den Calvin-Benson-Bassham-Zyklus), für den CO-Stoffwechsel (CO-Dehydrogenase) und für die H2-Verwertung (Hydrogenase) erforderlich sind, alle auf dem Megaplasmid pHCG3 lokalisiert, waren viel höher exprimiert während des autotrophen Wachstums mit Synthesegas. Darüber hinaus etablierten wir erfolgreich die reproduzierbare Transformation von O. carboxidovorans mittels Elektroporation und entwickelten Protokolle zur Gendeletion und zum Genaustausch mittels zweistufiger Rekombination, die eine induzierbare und stabile Expression heterologer Gene sowie die Konstruktion definierter Mutanten dieses Organismus ermöglichen. Somit markiert diese Studie einen wichtigen Schritt hin zu einem metabolischen Engineering von O. carboxidovorans und einer effektiven Nutzung von C1-haltigen Gasen mit diesem Organismus.

Ein reversibel induziertes CRISPRi-System, das auf das Photosystem II im Cyanobakterium abzielt Synechozystis sp. PCC 6803

Das Cyanobakterium Synechocystis sp. PCC 6803 wird als Modellorganismus zur Untersuchung der Photosynthese verwendet, da er Glucose als einzige Kohlenstoffquelle nutzen kann, um sein Wachstum unter heterotrophen Bedingungen zu unterstützen. CRISPR-Interferenz (CRISPRi) ist weit verbreitet, um die Transkription von Genen in Cyanobakterien gezielt zu unterdrücken. Ein robustes und reversibel induziertes CRISPRi-System wurde jedoch in Synechocystis 6803 nicht untersucht, um die Expression eines Zielgens zu zerstören und wiederherzustellen.In dieser Studie bauten wir einen streng kontrollierten chimären Promotor, PrhaBAD-RSW, in dem ein Theophyllin-responsiver Riboswitch in ein Rhamnose-induzierbares Promotorsystem integriert wurde. Wir verwendeten diesen Promotor, um die Expression von ddCpf1 (DNase-dead Cpf1 Nuclease) in einem CRISPRi-System zu steuern und wählten das PSII-Reaktionszentrums-Gen psbD (D2-Protein) als Ziel für die Repression. psbD wurde spezifisch um über 95 % seiner nativen Expression niedergeschlagen, was zu einer stark gehemmten Photosystem-II-Aktivität und dem Wachstum von Synechocystis 6803 unter photoautotrophen Bedingungen führte. Bezeichnenderweise kehrte die Entfernung der Induktoren Rhamnose und Theophyllin die Repression durch CRISPRi um. Die Expression von PsbD erholte sich nach der Freisetzung der Repression, gekoppelt mit erhöhtem Gehalt und Aktivität des Photosystems II. Dieses reversibel induzierte CRISPRi-System in Synechocystis 6803 stellt eine neue Strategie zur Untersuchung der Biogenese photosynthetischer Komplexe in Cyanobakterien dar.

Bottom-Up-Konstruktion eines Minimalsystems zur Zellatmung und Energieregeneration
  • Olivier Biner* ,
  • Justin G. Fedor ,
  • Zhan Yin und
  • Judy Hirst*

Adenosintriphosphat (ATP), die zelluläre Energiewährung, ist lebensnotwendig. Die Fähigkeit, eine konstante ATP-Versorgung bereitzustellen, ist daher entscheidend für den Aufbau künstlicher Zellen in der synthetischen Biologie. Hier beschreiben wir den Bottom-up-Aufbau und die Charakterisierung eines minimalen Atmungssystems, das NADH als Brennstoff verwendet, um ATP aus ADP und anorganischem Phosphat zu produzieren, und somit in der Lage ist, sowohl vorgelagerte Stoffwechselprozesse, die auf NAD+ angewiesen sind, als auch nachgelagerte Energie aufrechtzuerhalten. anspruchsvolle Prozesse, die durch ATP-Hydrolyse angetrieben werden. Ein Detergenz-vermittelter Ansatz wurde verwendet, um den respiratorischen mitochondrialen Komplex I und eine F-Typ-ATP-Synthase zu nanoskaligen Liposomen zu rekonstituieren. Die Zugabe der alternativen Oxidase zu den resultierenden Proteoliposomen erzeugte eine minimale künstliche „Organelle“, die die energieumwandelnden katalytischen Reaktionen der mitochondrialen Atmungskette reproduziert: NADH-Oxidation, Ubichinon-Zyklus, Sauerstoffreduktion, Protonenpumpen und ATP-Synthese. Als Proof-of-Principle zeigen wir, dass unsere Nanovesikel in der Lage sind, ein NAD+-verknüpftes Substrat zur Förderung der zellfreien Proteinexpression zu verwenden. Unsere Nanovesikel sind sowohl effizient als auch langlebig und könnten in zukünftigen Arbeiten verwendet werden, um künstliche Zellen zu erhalten.

Konstruktion eines induzierbaren genetischen Schalters für den globalen Regulator WblA zur Aufrechterhaltung sowohl der Überproduktion von Tiancimycinen als auch der On-Demand-Sporulation in Streptomyces sp. CB03234
  • Fan Zhang,
  • Stirb Gao,
  • Jing Lin,
  • Manxiang-Zhu,
  • Zhoukang Zhuang,
  • Yanwen Duan* , und
  • Xiangcheng Zhu*

Der komplexe Lebenszyklus von Streptomyceten ist eng mit ihrem Sekundärmetabolismus verbunden, der alle durch Kaskadenregulationen gesteuert wird. Tiancimycine (TNMs) sind zehngliedrige Endiine mit großem Potenzial für die Entwicklung von Antitumor-Medikamenten. Ihre geringen Ausbeuten in Streptomyces sp. CB03234 haben nachfolgende Studien stark eingeschränkt. Durch Transkriptomanalyse und genetische Charakterisierung haben wir bewiesen, dass WblA ein zentraler globaler Regulator ist, um die Biosynthese von TNMs zu unterdrücken. Die Deletion von wblA könnte die Produktion von TNMs signifikant steigern, aber auch die Sporulation in CB03234 aufheben. Durch die Konstruktion des NitR-ε-Caprolactam-induzierbaren genetischen Schalters wurde die Expression von wblA in CB03234-NRW gesteuert, wodurch die Überproduktion von TNMs aufrechterhalten und die normale Sporulation nach Induktion wiederhergestellt wurde, was für die maßstabsgetreue Produktion von TNMs praktisch war. In Anbetracht der Prävalenz und der konservierten regulatorischen Rolle von WblA in Streptomyceten soll unsere entwickelte Strategie einen effektiven und praktischen Ansatz bieten, um die Titerverbesserung und die Entdeckung von Naturstoffen zu erleichtern.

Hochdurchsatz-Screening nach substratspezifitätsadaptierten Mutanten der Nisin-Dehydratase NisB
  • Xinghong Zhao,
  • Rubén Cebrián,
  • Yuxin Fu,
  • Rick Rink,
  • Tjibbe Bosma,
  • Gert N. Moll und
  • Oscar P. Kuipers*

Mikrobielle Lanthipeptide werden durch eine zweistufige enzymatische Einführung von (Methyl)lanthioninringen gebildet. Eine Dehydratase katalysiert die Dehydratisierung von Serin- und Threoninresten, was Dehydroalanin bzw. Dehydrobutyrin ergibt. Die Cyclase-katalysierte Kopplung der gebildeten Dehydroreste an Cysteine ​​bildet (Methyl)lanthioninringe in einem Peptid. Lanthipeptid-Biosynthesesysteme ermöglichen die Entdeckung zielspezifischer, Lanthionin-stabilisierter therapeutischer Peptide. Die Substratspezifität existierender Modifikationsenzyme schränkt jedoch den Einbau von Lanthioninen in nicht-natürliche Substrate ein. Das Ziel der vorliegenden Studie war es, eine Lanthipeptid-Dehydratase mit der Fähigkeit zu erhalten, Substrate zu dehydratisieren, die für die Nisin-Dehydratase NisB ungeeignet sind. Wir berichten über ein Hochdurchsatz-Screening für die maßgeschneiderte Spezifität intrazellulärer, genetisch kodierter NisB-Dehydratasen. Das Prinzip basiert auf dem Screening von bakteriell präsentierten Lanthionin-beschränkten Streptavidin-Liganden, die eine viel höhere Affinität für Streptavidin aufweisen als lineare Liganden. Die entworfenen NisC-zyklisierbaren Liganden mit hoher Affinität können durch mutierte NisB-katalysierte Dehydratisierung gebildet werden, aber weniger effektiv durch Wildtyp-NisB-Aktivität. In Lactococcus lactis wurde ein Vorläufer des Zelloberflächendisplays entworfen, der DSHPQFC umfasst. Der dem Serin in dieser Sequenz vorausgehende Asp-Rest benachteiligt seine Dehydratisierung durch Wildtyp-NisB. Der Zelloberflächen-Display-Vektor wurde mit einer mutierten NisB-Bibliothek und NisTC koexprimiert. Anschließend wurden mutierte NisB-haltige Bakterien, die zyklisierte Streptokokken-Liganden auf der Zelloberfläche aufweisen, über Panning-Runden mit Streptavidin-gekoppelten Magnetkügelchen selektiert. Auf diese Weise wurde eine NisB-Variante mit einer maßgeschneiderten Dehydratisierungskapazität erhalten, die hinsichtlich ihrer Fähigkeit zur Dehydratisierung von Nisin-Mutanten weiter untersucht wurde. Diese Ergebnisse zeigen eine leistungsfähige Methode zur Auswahl von Lanthipeptid-Modifikationsenzymen mit angepasster Substratspezifität.


Anwendung von Computerbiologie und Künstlicher Intelligenz in der Krebspräzisions-Wirkstoffforschung

Künstliche Intelligenz (KI) erweist sich in vielen Bereichen des Gesundheitswesens als enormes Potenzial, einschließlich Forschung und chemischer Entdeckungen. Durch die Verwendung großer Mengen aggregierter Daten kann die KI diese Daten entdecken und weiter lernen, um diese Daten in „nutzbares“ Wissen umzuwandeln. In diesem Bewusstsein haben die weltweit führenden Pharmaunternehmen bereits begonnen, künstliche Intelligenz einzusetzen, um ihre Forschung zu neuen Medikamenten zu verbessern. Ziel ist es, moderne Computerbiologie und maschinelle Lernsysteme zu nutzen, um das molekulare Verhalten und die Wahrscheinlichkeit, ein nützliches Medikament zu erhalten, vorherzusagen und so Zeit und Geld für unnötige Tests zu sparen. Klinische Studien, elektronische Krankenakten, hochauflösende medizinische Bilder und genomische Profile können als Ressourcen zur Unterstützung der Arzneimittelentwicklung verwendet werden. Pharmazeutische und medizinische Forscher verfügen über umfangreiche Datensätze, die von starken KI-Systemen analysiert werden können. Dieser Review konzentrierte sich darauf, wie Computerbiologie und künstliche Intelligenztechnologien implementiert werden können, indem das Wissen über Krebsmedikamente, Medikamentenresistenz, Sequenzierung der nächsten Generation, genetische Varianten und Strukturbiologie in die Krebspräzisionswirkstoffforschung integriert wird.

1. Einleitung

Die personalisierte oder Präzisions-Krebstherapie beinhaltet die Identifizierung von Krebsmedikamenten für individuelle molekulare Tumorprofile, klinische Merkmale und die damit verbundene Mikroumgebung von Krebspatienten [1, 2]. Die Präzisionsmedizin zielt auch darauf ab, Krebs mit weniger Nebenwirkungen effektiver zu behandeln. Laut einem Bericht der International Agency for Research on Cancer (IARC) wurden 2018 weltweit rund 18,1 Millionen neue Register zu Krebsfällen und 9,6 Millionen krebsbedingte Todesfälle gemeldet [3]. In Kombination mit klassischen Krebsbehandlungsmethoden wurden jüngste Innovationen in der Krebsbehandlung wie gezielte Chemotherapie, antiangiogene Wirkstoffe und Immuntherapie von den Ärzten von Fall zu Fall angepasst, um bessere Ergebnisse zu erzielen [4]. In einer Reihe von Fällen zeigen Krebsarten wie hepatozelluläres Karzinom, malignes Melanom und Nierenkrebs oft eine intrinsische Resistenz gegen Medikamente ohne vorherige Dosierung von Krebsmedikamenten [5]. In anderen Fällen ist das anfängliche Ansprechen auf die Chemotherapie bemerkenswert. Auf eine solche Phase folgt jedoch ein schlechtes Ergebnis, da Krebs anfangs gut auf eine Chemotherapie anspricht, später jedoch aufgrund einer Resistenzentwicklung Resistenzen zeigt. Jedes Jahr werden Millionen von Fällen von unerwünschter Arzneimittelresistenz bei Krebsbehandlungen gemeldet, was zu Tausenden von vermeidbaren Todesfällen führt. Eine solch schlimme Situation erfordert daher die Entwicklung potenzieller Medikamente. Es ist jedoch ein zeitaufwändiger und komplexer Prozess, da jeder Krebspatient anders auf ein Chemotherapeutikum anspricht und seine schädlichen Auswirkungen oft nicht vorhersehbar sind [6].

Letztendlich besteht ein entscheidender Bedarf, den primären Mechanismus zu identifizieren, der die Resistenz gegen Krebstherapien vorhersagen kann. Die Einbeziehung des tumorgenetischen Profilings in die klinische Praxis hat das vorhandene Wissen über die komplexe Biologie der Tumorinitiierung und -progression verbessert. Next-Generation-Sequencing (NGS) ist eine Plattform, die häufig von Forschern verwendet wird, um das genetische Muster von Krebspatienten zu entschlüsseln, was eine präzise Antitumorbehandlung basierend auf ihren jeweiligen genomischen Profilen ermöglicht. Es ist klar, dass NGS eine wichtige Rolle bei der Behandlung von Krankheiten spielt, jedoch steht es bei seiner Umsetzung vor vielen technischen Herausforderungen. Die hochpräzisen Daten von NGS führen zur Identifizierung einer großen Anzahl von Genomvariationen, um die schädlichen Variationen von Krankheiten weiter zu identifizieren. Daher sind spezielle moderne Rechenalgorithmen erforderlich, um die Daten zu analysieren und zu interpretieren. Zur Analyse des Datensatzes wurden eine Reihe von Computerwerkzeugen entwickelt, die mit genomischen Sequenz- und biochemischen Daten zum genetischen Polymorphismus integriert sind. Solche Werkzeuge werden die Vorhersage der funktionellen Konsequenzen eines schädlichen Polymorphismus ermöglichen. Die meisten Werkzeuge wurden entworfen, gefolgt von der Kombination von physikalisch-chemischen Eigenschaften von Aminosäuren, Proteinstrukturinformationen und evolutionärer Sequenzkonservierungsanalyse. Die Analyse der funktionellen Folgen genetischer Variation ist nicht die Grenze, daher wird die Ausrichtung einer solchen Analyse auf die präzise Wirkstoffforschung und die strukturellen Eigenschaften der Arzneimittelinteraktion eine neue Dimension in der Krebsbehandlung bringen. Die NGS-Technologie erzeugt normalerweise riesige Datenmengen, und es ist sehr schwierig, die Daten mit den derzeit vorhandenen Tools zu analysieren. KI-Ansätze haben jedoch die Fähigkeit, NGS-Daten zu analysieren, um geeignete Medikamente für einzelne Patienten zu identifizieren.

Künstliche Intelligenz (KI) erweist sich in vielen Bereichen des Gesundheitswesens als enormes Potenzial, einschließlich der biomedizinischen Datenanalyse und der Wirkstoffforschung. Die modernen Supercomputer und maschinellen Lernsysteme sind in der Lage, die genetischen Daten zu erforschen, um die Präzisionsmedikamente zu identifizieren. Der Hauptgrund für den Einsatz von KI in der genetischen Datenanalyse ist der Abschluss der Humangenomprojekte, die riesige Mengen an genetischer Information gemeldet haben. In den letzten Jahren hat die Idee, KI zur Beschleunigung der präzisen Arzneimittelidentifikation zur Verarbeitung und Steigerung der Erfolgsraten von pharmazeutischen Forschungsprogrammen einzusetzen, zu einem Anstieg der Aktivitäten in diesem Bereich geführt. Heutzutage können biomedizinische Studien aufgrund der Weiterentwicklung der Sequenzierungstechniken und der Ansammlung von Informationen über genetische Variationen auf umfangreiche Datensätze zugreifen. Daher bestehen derzeit größere Aussichten, dass die Präzisionsmedizin in den Vordergrund der Krebsbehandlung tritt. Da die künstliche Intelligenz das genetische Profil jedes Patienten nutzt, kann das richtige Medikament für die Bedürfnisse des Patienten identifiziert werden. Darüber hinaus ist das System der künstlichen Intelligenz in der Lage, die Schlüsselinformationen in kurzer Zeit zu verfeinern. In diesem Review wollen wir die Integration neuer computergestützter und biologischer Techniken diskutieren, um eine effektivere Krebsbehandlung zu entwickeln. Dies wird die Herstellung einer Präzisionsplattform zur Arzneimittelidentifizierung durch den Einsatz künstlicher Intelligenz ermöglichen.

2. Literaturübersicht zu Sequenzierungstechnologien der nächsten Generation und Variantenaufrufalgorithmen

In den frühen 1970er Jahren wurde eine neue Technologie etabliert, um das DNA-Molekül zu sequenzieren. Die technische Komplexität, die Arbeitskosten und die begrenzte Verfügbarkeit radioaktiver Reagenzien machten es den Forschern jedoch schwierig, diese Technologie im Labor einzusetzen. Im Anschluss daran übernahm die von Sanger und Kollegen entwickelte automatisierte DNA-Sequenzierungstechnologie der ersten Generation eine Kettenterminationsmethode [7]. Maidenet al. 1990 nutzte die DNA-Sequenzierungstechnologie im Multilocus-Sequenztypisierungsschema für Meningokokken [8]. Haemophilus influenzae ist der erste in der Umwelt lebende Mikroorganismus, der 1995 mit der Sanger-Sequenzierungsmethodik sequenziert wurde [9]. Es ist jedoch sehr teuer und zeitaufwendig, mit dieser Technologie das gesamte menschliche Zellgenom zu sequenzieren. 1990 wurde das Humangenomprojekt mit dem Ziel initiiert, 3,2 Milliarden Basenpaare menschlicher Genome für die biomedizinische Forschung in der Krankheitsdiagnostik und -behandlung zu entschlüsseln. Anfänglich wurde die Sanger-Sequenzierungstechnologie in diesem Projekt im Wert von 3,8 Milliarden mit internationaler Zusammenarbeit verwendet [10, 11]. Später in den frühen 2000er Jahren tauchte eine weitere neue Technologie auf, nämlich die Next Generation Sequencing (NGS)-Technologie, die den DNA-Sequenzierungsprozess durch Reduzierung von Zeit, Kosten und Arbeit wirklich revolutionierte. Nach 2010 wurde eine Genomsequenzierung an bakteriellen Krankheitserregern durchgeführt, wodurch die Nutzung der Technologie aus dem Labor auf die öffentliche Gesundheitspraxis übertragen wird. Die Sequenzierungstechnologien wurden bei mehreren Ereignissen des Ausbruchs einer kritischen Infektionskrankheit eingesetzt. Einige Beispiele sind der Cholera-Ausbruch nach einem schweren Erdbeben in Haiti im Jahr 2010 und die E coli O104: Ausbruch der H4-Krankheit, die 2011 mit dem Verzehr von Bockshornklee-Sprossen in Verbindung gebracht wurde [12, 13]. In beiden Fällen war es wichtig, das virulente Merkmal sofort zu verstehen, um das Fortschreiten der Krankheit zu verlangsamen, die zu massiver Morbidität und Mortalität führt. Bei diesen Veranstaltungen reagierten sowohl akademische als auch staatliche Forschungslabore schnell mit der NGS-Technologie, die Crowd Sourcing und offenen Datenaustausch nutzte. Nach diesen Ausbrüchen haben mehr Labore des öffentlichen Gesundheitswesens damit begonnen, die NGS-Technologie einzusetzen. Standardisierte NGS-Tests wurden in den öffentlichen Labors vieler Länder zur Überwachung eingeführt, und darüber hinaus wurden NGS in spezialisierten Krankenhauslabors hoch bewertet [14, 15].

Zwischen 1975 und 2005 war die Sanger-Methode die vorherrschende Sequenzierungsmethode. Es gilt als Goldstandard für die DNA-Sequenzierung, die 500–1000 bp lange hochwertige DNA-Reads produzieren kann. Im Jahr 2005 führten 454 Life-Science-Unternehmen eine revolutionierte Pyrosequenzierungstechnologie ein, die als „Next Generation Sequencing (NGS)-Technologie“ bezeichnet wird [16]. Diese umfangreiche DNA-Sequenzierungstechnologie ist in der Lage, Tausende bis Millionen kurzer DNA-Fragmente in einem einzigen Maschinenlauf ohne Klonen zu lesen und zu detektieren. Spätere Versionen der DNA-Sequenzierungstechnologie waren in der Lage, kurze Reads (50–400 bp) und lange Reads (1–100 kb) zu generieren. Der Arbeitsmechanismus und die Leistung wurden in vielen Übersichtsartikeln ausführlich diskutiert [17, 18]. Die MiSeq- und MiniSeq-Technologien bieten niedrige bis mittlere Probenverarbeitung, moderate Instrumentierungskosten und benutzerfreundliche Arbeitsmethoden mit automatisierten und erschwinglichen Kosten pro Probe von etwa 120 USD pro 5 MB Genomsequenzierung. Daher waren sie die erste Wahl der Technologie für Labore im Bereich der öffentlichen Gesundheit und der Krankheitsdiagnostik. Die Technologien HiSeq, NextSeq und NovaSeq werden unabhängig von ihren hohen Instrumentierungskosten als besser geeignet für Kernsequenzierungseinrichtungen angesehen, da ihre Kosten pro Probe während der gesamten Sequenzierung niedrig sind. Sie erfordern jedoch eine Automatisierung für die Bibliotheksvorbereitung. Durch Ausnutzung der vollen Kapazität einer Sequenziermaschine können die Kosten effektiv weiter gesenkt werden. Darüber hinaus ist die Echtzeitprüfung von entscheidender Bedeutung, da die laborspezifischen Proben in den laboreigenen Sequenziermaschinen sequenziert werden, die stark auf die Routineproben abgestimmt sind. Beispielsweise können mit einem einzigen MiSeq-Gerät und der Verwendung von v3-Reagenz jährlich etwa 4000 Isolate verarbeitet werden, was Echtzeittests in einem Labor abdecken würde. Unter den NGS-Sequenzierungsplattformen erzeugt HiSeq als ein Produkt von Illumina die beste Qualität von Base-Call-Daten. Ion Torrent, als Produkt der Thermosfischerei, führt auch eine Sequenzierung durch Synthese und ihren Nachweis durch, die auf den während der DNA-Polymerisation freigesetzten Wasserstoffionen basiert, die mit dem Festkörper-pH-Meter gemessen werden können [19]. Die PGM- und S5-Instrumente sind die IonTorrent-Äquivalente für Illumina MiniSeq und MiSeq, das Ion-Proton ist äquivalent zu Illumina NextSeq. Die Leistung, die Stärke und die Schwäche einer bekannten Genomsequenzierungsplattform wurden verglichen und in Tabelle 1 tabellarisch dargestellt.

Mutationen/Variationen im genetischen Code gelten als eine wichtige Ursache von Krebs und stehen daher im Mittelpunkt der Krebsforschung und -behandlung. Die jüngsten Fortschritte in der Sequenzierungstechnologie können einen riesigen Datensatz generieren, der mit Computermethoden untersucht werden kann, um die de novo-Mutation zu identifizieren. Theoretisch können alle Mutationen auch in der genomischen Region oder Variant Allel Frequency (VAF) mit ausreichender Lesetiefe identifiziert werden. Das Rauschen in den Dateien macht es jedoch schwierig, sie sicher zu identifizieren. Eine Reihe von Computermethoden wurde entwickelt, um die genetische Variation oder Mutation aus den komplexen DNA-Sequenz-Reads zu identifizieren (Tabelle 2). Der Prozess umfasst eine Prozedur mit drei Funktionen: Leseverarbeitung, Zuordnung und Ausrichtung sowie Variantenaufruf. In einem ersten Schritt wurden die Leseverarbeitungsalgorithmen wie NGS QC Toolkit [20], Cutadapt [21] und FASTX Toolkit verwendet, um die minderwertigen und exogenen Sequenzen wie den Sequenzierungsadapter herauszuschneiden. Während der Bibliotheksvorbereitung der gezielten Sequenzierung verwendet ein Teil des Protokolls eindeutige molekulare Identifikatoren (UMI) und PCR-Primer. Um das Oligonukleotid zu trimmen und zu entfernen, muss ein angepasstes Leseverarbeitungsskript entwickelt werden. Zweitens werden die verarbeiteten Reads mit dem Referenzgenom kartiert, um die Sequenz zu identifizieren, gefolgt von einem Base-by-Base-Alignment. Zu den gängigsten Anwendungs-, Kartierungs- und Alignment-Tools für DNA-Sequenzen gehören NovoAlign, BWA [22] und TMAP (für Ion Torrent Reads) und für die RNA-Sequenzierung spleißfähige Aligner-Tools wie STAR [23] und TopHat [24] werden verwendet. Genome Analysis Toolkits (GATKs) sind das weit verbreitete Werkzeug für das Varianten-Calling nach den Verfahren, die im Allgemeinen in diesem Schritt wichtig sind, wie PCR-Deduplizierung, Indel-Realignment und Rekalibrierung der Basisqualität [25, 26]. Der letzte Prozess ist das Varianten-Calling, das ein wichtiger Schritt zur Identifizierung korrekter Varianten/Mutationen von Artefakten ist, die aus der vorbereiteten Bibliothek stammen, Sequenzierung, Kartierung oder Ausrichtung und Probenanreicherung. Es wurden eine Reihe von Werkzeugen zum Aufrufen von Keimlinien und somatischen Varianten entwickelt, die zur Analyse frei verfügbar sind. Das zugrunde liegende Wissen ist für somatische und Keimbahnvarianten-Calling-Tools sehr unterschiedlich. Es wird erwartet, dass die Allelfrequenz in Algorithmen zum Aufrufen von Keimbahnvarianten 50 oder 100 % beträgt, und daher haben Algorithmen zum Aufrufen von Keimbahnvarianten AA oder AB oder BB unter diesen drei Genotypen genau identifiziert, die am besten passen [26–29]. Die meisten Artefakte treten mit geringerer Häufigkeit auf und verursachen weniger wahrscheinlich ein Problem, da in diesem Fall eine homozygote Referenz der wahrscheinlichste Genotyp wäre.Es wird jedoch nicht empfohlen, diese Art von Artefakt beim somatischen Varianten-Calling zu vernachlässigen, da einige Originalvarianten auch in sehr geringer Häufigkeit in Situationen wie unreiner Probe, seltenen Tumorsubklonen und in zirkulierender DNA auftreten können. Daher besteht die größte Herausforderung des somatischen Variantenaufrufalgorithmus darin, die niederfrequenten Varianten aus Artefakten genau zu identifizieren, was mit fortschrittlicher Fehlerkorrekturtechnologie und einem empfindlicheren statistischen Modell erfolgen kann. Genetische Varianten können in drei Hauptgruppen eingeteilt werden: Insertion und Deletion (Indel), Strukturvariante (wie Duplikation, Translokation, Kopienzahlvariation usw.) und Einzelnukleotidvariante (SNV). Derzeit steht nur eine minimale Anzahl von Variantenaufrufalgorithmen zur Verfügung, um alle diese Typvarianten vorherzusagen, da sie speziell trainierte Algorithmen benötigen. Für einzelne Nukleotidvariationen und kurze Indels (typischerweise Größe 10 bp) besteht das primäre Verfahren darin, auf Nicht-Referenz-Nukleotidbasen aus dem Sequenzstapel zu prüfen, die jede Position abdecken. Um die genotypischen Varianten zu bewerten, werden meist probabilistische Modellierungswerkzeuge verwendet oder um das Artefakt anhand der Variantenwahrscheinlichkeit zu klassifizieren. Da die Lesevorgänge bei strukturellen Varianten und langen Indels zu kurz sind, um sich über eine beliebige Variante zu erstrecken, liegt der Fokus darauf, die Bruchpunkte basierend auf den Mustern der Fehlausrichtung mit gepaarten Lesevorgängen oder plötzlichen Änderungen der Lesetiefe zu identifizieren. Split-Reads-Assembly- und De-novo-Methoden werden häufig für die somatische Variantenanalyse und die Erkennung von langen Indels verwendet. GATK Unified Genotyper/Haplotype Caller, GAP und MAQ sind einige der Werkzeuge, die für das Aufrufen von Keimbahnvarianten verwendet werden [25, 26, 30, 31]. Für das Aufrufen somatischer Varianten wurden einheitliche Haplotyp- und Genotyp-Calling-Algorithmen verwendet, aber die Kernalgorithmen werden für diese Analyse nicht formuliert, da sie bei niederfrequenten somatischen Varianten schlecht abschneidet, und diese Informationen werden in einigen unabhängigen Studien sowie in den GATK-Dokumentation [32, 33]. Einige andere Variantenaufrufer wie Donner und CRISP, die hauptsächlich für gepoolte Proben verwendet werden, werden auch für die Variantenanalyse verwendet [34].

3. Globaler Krebsbericht

Ein Grund für die Mehrzahl der weltweiten Todesfälle ist das Auftreten nichtübertragbarer Krankheiten (NCD) [35]. Im 21. Jahrhundert ist Krebs in fast allen Ländern der Welt die Haupttodesursache und dieses weit verbreitete Problem behindert die Verlängerung der Lebenserwartung. Im Jahr 2015 schätzte die Weltgesundheitsorganisation (WHO), dass Krebs in 91 von 172 Ländern eine dominierende Ursache für Mortalität und Morbidität vor dem 70 für den Tod. Krebserkrankungen und -sterblichkeit nehmen weltweit rapide zu. Letztlich gibt es komplexe Gründe wie die fehlende Prävalenz und Verbreitung der Krankheit sowie eine alternde Bevölkerung. Darüber hinaus sind die Bevölkerungszunahme und ihre sozioökonomischen Bedingungen Hauptursachen für Krebstodesfälle [36, 37]. Die Krebsinzidenz wird vor allem in Entwicklungsländern gemeldet, wo die steigende Zahl der Erkrankungen parallel zu einer Veränderung des genetischen Profils üblicher genetischer Tumortypen verläuft. Eine ernsthafte Beobachtung im Hinblick auf die anhaltenden Veränderungen bei armuts- und infektionsbedingten Krebserkrankungen ist, dass sie in einigen entwickelten Kontinenten mit den höchsten Einkommen wie Ozeanien, Asien, Nordamerika und Europa immer häufiger auftreten. Die Hauptursache für diese Krebsarten ist oft der modernisierte Lebensstil [37–39]. Die unterschiedlichen genetischen Profile von Krebstumoren in verschiedenen Ländern und sogar zwischen bestimmten ethnischen Zonen weisen jedoch darauf hin, dass geografische Unterschiede bestehen, wobei lokale Faktoren in Bevölkerungen in sehr unterschiedlichen Phasen des wirtschaftlichen und sozialen Übergangs bestehen bleiben. Dies wird durch die großen Unterschiede in der Häufigkeit von Infektionen im Zusammenhang mit Krebserkrankungen, einschließlich Magen, Leber und Gebärmutterhals, in den Regionen an den entgegengesetzten Enden des menschlichen Entwicklungsspektrums verdeutlicht [38]. Im Hinblick auf diese Informationen wurde eine statistische Analyse der weltweiten Krebsbelastung im Jahr 2018 auf Grundlage der von der International Agency for Research on Cancer (IARC) analysierten Beobachtung der Krebsmorbidität und -mortalität GLOBOCAN 2018 durchgeführt [40]. Zur Beobachtung der Krebsmorbidität und -mortalität auf globaler Ebene wurden die gleichen Parameter wie in den Jahren 2002 [41], 2008 [41] und 2012 [42] herangezogen. Als Ergebnis wurde eine Bewertung der geografischen Unterschiede vorgenommen, die in zwanzig vordefinierten globalen Regionen beobachtet wurden. Von der Gesamtzahl der Fälle wurden 11,6% Lungenkrebs beobachtet und von der Gesamtzahl der krebsbedingten Todesfälle waren 18,4% Lungenkrebs-Ursache. Bei Frauen ist Brustkrebs mit 11,6% die zweithäufigste Krebserkrankung, gefolgt von Dickdarmkrebs mit 10,2% und Prostatakrebs mit 7,1%. Was die Mortalität betrifft, so sind die Hauptursachen Darmkrebs mit 9,2 %, gefolgt von Leber- und Magenkrebs mit 8,2 %. Bei Männern ist Lungenkrebs die am häufigsten auftretende Krebserkrankung und der Hauptgrund für die Krebssterblichkeit. Darüber hinaus sind Prostata- und Darmkrebs die Hauptursachen für das Auftreten von Krebs und Leber- und Magenkrebs für krebsbedingte Todesfälle. In der weiblichen Bevölkerung ist Brustkrebs die am häufigsten auftretende Krebserkrankung und die Hauptursache für den Krebstod, gefolgt von Dickdarm- und Lungenkrebs für die Inzidenz. Neben diesen ersten Gründen steht Gebärmutterhalskrebs sowohl bei der Morbidität als auch bei der Mortalität an vierter Stelle. Über 65% der neu identifizierten Morbidität und Mortalität von Krebs werden durch die zehn weltweit beobachteten Krebsarten verursacht.

4. Komplikationen bei der Entdeckung von Krebsmedikamenten

Seit den Anfängen der menschlichen Zivilisation gibt es eine lange Geschichte der Entdeckung und Entwicklung von Medikamenten. Die Entdeckung und Entwicklung von Medikamenten ist noch immer ein zeitaufwändiger Prozess, wobei etwa 10–15 Jahre benötigt werden, um ein einziges wirksames Medikament aus dem Labor auf den Markt zu bringen. Darüber hinaus sind enorme Investitionen von durchschnittlich 500 bis 2 Milliarden US-Dollar erforderlich [43, 44]. Die hohen Kosten der Arzneimittelentwicklung werden wahrscheinlich die Fähigkeit von Patienten mit finanziellen Einschränkungen beeinträchtigen, die Behandlung zu erwerben. Die Ausgaben für die Krebsbehandlung in den USA werden voraussichtlich von 124,57 Milliarden US-Dollar im Jahr 2010 auf 157,77 Milliarden US-Dollar bis 2020 steigen [45]. Neben der Entdeckung und Entwicklung muss die Arzneimittelproduktion in In-vitro- und In-vivo-Studien ein zufriedenstellendes Maß an Toxizität, Wirksamkeit sowie pharmakodynamischen und pharmakokinetischen Profilen der potenziellen Arzneimittelkandidaten erfüllen. Darüber hinaus wurden präklinische Studien durchgeführt, um die Wirksamkeit und Sicherheit des Arzneimittels beim Menschen in vier verschiedenen Phasen zu untersuchen. Grundsätzlich wird die Entwicklung von Medikamenten durch eine hohe Versagensrate hinsichtlich ihrer Toxizitäts- und Wirksamkeitsprofile behindert. Obwohl neue Wirkstoffkandidaten in Phase-I-Studien ein hohes Sicherheitsprofil aufweisen, scheitern den jüngsten Berichten zufolge die meisten Arzneimittelergebnisse an der schlechten Wirksamkeit in klinischen Phase-II-Studien [46]. Im Vergleich zu anderen Verfahren der Wirkstoffforschung weist die onkologiebezogene therapeutische Entdeckung die höchste Misserfolgsrate in klinischen Studien auf. Die jüngste Entwicklung in der Krebsbehandlung ermöglicht die Entdeckung zielspezifischer Medikamente. Allerdings ist nur 1 von 50.000 bis 100.000 zielspezifischen Krebsmedikamenten von der US-amerikanischen FDA zugelassen. Darüber hinaus werden oft nur 5 % der Krebsmedikamente, die in klinische Studien der Phase I gelangen, zugelassen [47]. Der Ansatz mit zielgerichteten Krebsmedikamenten ist gescheitert und wird von Onkologen immer noch untersucht, um den zugrunde liegenden molekularen Mechanismus zu verstehen. Aus den Untersuchungsberichten geht hervor, dass mehr als 500 Signalmoleküle zur Krebsentstehung beigetragen haben [48]. Die zielgerichtete Wirkstoffforschung konzentriert sich jedoch hauptsächlich auf die Hemmung der identifizierten Signalmoleküle. Eine weitere Untersuchung muss durchgeführt werden, um die Wirkstoff-Gable-Targets zu untersuchen, die nicht die angeblichen Signalmoleküle sind. Die meisten Wirkstoffziele werden basierend auf den präklinischen Studien klassifiziert, jedoch sind die meisten Vorbefunde in der klinischen Behandlung nicht genau reproduzierbar. Die Anzahl potenzieller Medikamente wie Olaparib und Iniparib zeigte in präklinischen Stadien vielversprechende Ergebnisse. Diese präklinischen In-vitro- und In-vivo-Studien berücksichtigen jedoch nicht genau die menschliche Krebs-Mikroumgebung [49–51]. Darüber hinaus führt die mangelnde Qualität der pharmakodynamischen und pharmakokinetischen Untersuchung von Arzneimitteln zum Versagen. Weitere schlechte Teststrategien wirken sich auch stark auf das Potenzial des Medikaments aus, von den präklinischen Befunden auf die medizinische Behandlung zu übertragen [52].

5. Resistenz gegen Krebsmedikamente

Die Arzneimittelresistenz kann auf die Abnahme der Wirkstärke und Wirksamkeit des Arzneimittels zurückgeführt werden, um die gewünschten Wirkungen zu erzielen. Es stellt ein großes Hindernis für die Behandlung der Krankheit dar und beeinflusst das Gesamtüberleben des Patienten. Insbesondere lokale oder lokoregionale sowie entfernte Tumormetastasen, die zum Paradoxon der therapieinduzierten Metastasierung (TIM) führen, können zu einer Resistenz gegen Krebstherapien führen [5, 53, 54]. In einer Reihe von Fällen zeigen Tumore wie das hepatozelluläre Karzinom, das maligne Melanom und das Nierenkarzinom häufig auch ohne vorherige Chemotherapie eine intrinsische Resistenz gegen Krebsmedikamente, was zu einem schlechten Ansprechen in der Anfangsphase der Behandlung führt [5]. In einigen anderen Fällen kann ein Chemotherapeutikum zunächst das gewünschte Ergebnis zeigen. Es folgt jedoch oft ein schlechtes Ansprechen mit schädlichen Nebenwirkungen aufgrund des Auftretens einer erworbenen Arzneimittelresistenz. Bisher sind Strahlentherapie und Chirurgie die möglichen Behandlungsmethoden zur Entfernung von Krebszellen. Zur Behandlung von metastasierenden Tumoren oder hämatologischen Malignomen sind mehr systemische Behandlungen erforderlich. Aktuelle Formen der systemischen Behandlung sind zielspezifische Chemotherapie, Immuntherapie und antiangiogene Wirkstoffe [53]. In den meisten Fällen entwickelt sich eine Arzneimittelresistenz aufgrund erworbener und/oder intrinsischer genetischer Modulationen. Intrinsische Resistenz kann induziert werden durch (a) Modifikation der Funktion und/oder Expression des Wirkstoffziels, (b) Wirkstoffabbau, (c) Veränderungen des Wirkstofftransportmechanismus zwischen den Zellmembranen, (d) Änderungen der Wirkstoffbindungseffizienz /Wirksamkeit mit seinem Bindungsziel [54, 55]. Kernrezeptoren und ATP-abhängige Membrantransporter sind die primären Faktoren, die die intrinsische Zellresistenz vermitteln [56]. Darüber hinaus verringern zelluläre Stoffwechselwegsysteme wie die Ceramid-Glykosylierung die Wirksamkeit von Krebsmedikamenten [57]. Darüber hinaus erhöht ein verbesserter DNA-Schadensreparaturmechanismus die Arzneimittelresistenz, indem er den Einstrom verringert, den Ausfluss erhöht, die Arzneimittelansammlung durch Zellmembrantransporter hemmt und Arzneimittel inaktiviert [58, 59]. In Berichten neuerer Studien zeigten die primären Krebsmedikamente Anzeichen einer Resistenz gegen die bekannten Angriffspunkte wie z TP53 [60]. Darüber hinaus erworbene Arzneimittelresistenz, die durch umweltbedingte und genetische Faktoren induziert wird, die die Entwicklung arzneimittelresistenter Tumorzellen fördert oder Mutationen von Genen induziert, die an relevanten Stoffwechselwegen beteiligt sind [61, 62].

6. Rechenmethoden zur Variantenklassifikation

In den letzten Tagen kann der genetische Mechanismus hinter menschlichen Krankheiten durch Ansätze der Next-Generation-Sequencing-Technologie wie der Whole Exome Sequencing (WES) verstanden werden [63, 64]. Durch die WES-Sequenzierungstechnologie können die genetischen Varianten im menschlichen Genom nachgewiesen werden. Bisher wurde in mehreren Berichten dokumentiert, dass Missense-Varianten die Hauptursache für genetische Erkrankungen sind [65, 66]. Allerdings sind nicht alle Missense-Varianten an humangenetischen Erkrankungen beteiligt, da nur schädliche Varianten mit Mendelschen Erkrankungen, Krebs und nicht diagnostizierten Krankheiten in Verbindung gebracht werden [67]. Die Identifizierung aller schädlichen Varianten durch experimentelle Validierung ist eine ziemlich komplizierte Arbeit, da sie viel Arbeit und Ressourcen erfordern würde. Daher wurden Computermethoden entwickelt, um dieses Problem effektiv anzugehen, indem verschiedene Ansätze wie Sequenzevolution, Sequenzhomologie und Proteinstrukturähnlichkeit angewendet werden [68–87]. Im Allgemeinen gibt es drei Vorhersageverfahren: (i) Sequenzkonservierungsverfahren, die im Allgemeinen den Grad der Nukleotidbasenkonservierung an einer bestimmten Position im Vergleich zu den Informationen über die multiplen Sequenz-Alignments notieren. (ii) Proteinfunktionsvorhersageverfahren, die die Wahrscheinlichkeit berechnen, dass eine Missense-Variante eine strukturelle Modifikation erzeugt, die die Proteinfunktion beeinflusst. (iii) Ensemble-Methoden, die sowohl Sequenz- als auch Strukturinformationen integrieren, um die Wirkung schädlicher Varianten zu berechnen. In den meisten Fällen wurden alle diese Methoden für die Entwicklung von Werkzeugen zur Identifizierung von Missense-Varianten übernommen [88–90] und diese Werkzeuge werden in unseren Studien verwendet [91–94]. VarCards ist eine Datenbank, die mit Informationen über klassifizierte genetische Varianten des Menschen entwickelt wurde [95, 96]. Es hat die funktionellen Konsequenzen von Allelfrequenzen, verschiedenen Berechnungsmethoden und anderen klinischen und genetischen Informationen, die mit allen möglichen Kodierungsvarianten verbunden sind, integriert [97]. Es ist jedoch immer noch schwierig, die Varianz in der Leistung der Berechnungsmethoden zu verstehen, die sich unter verschiedenen Bedingungen unterscheiden. Verschiedene Studien haben die Leistung der Berechnungsmethoden der Missense-Variantenvorhersage verglichen, sie haben jedoch nicht die experimentell ausgewerteten und berücksichtigten Benchmark-Datensätze verwendet [98–103]. Insbesondere konzentrieren sich diese Studien auf die Bewertung der Receiver Operating Characteristic (ROC)-Kurven. Andere Parameter wie Genauigkeit, Spezifität, Sensitivität und Fläche unter der Kurve (AUC) wurden jedoch nicht vollständig bewertet. Es kann Fälle geben, in denen Genetiker und Kliniker während der genetischen Beratung für bekannte krankheitsverursachende Gene Computerwerkzeuge verwenden, um die schädlichen Varianten unter den Missense-Varianten vorherzusagen [104]. Es wird daher erwartet, dass diese Werkzeuge die pathogenen Varianten mit einer hohen Sensitivitätsrate unterscheiden müssen [87]. Darüber hinaus sind VEST3 [78], REVEL [85] und M-CAP [87] einige kürzlich entwickelte Algorithmen, die in den vorherigen Studien nicht vollständig untersucht wurden. Eine aktuelle Studie verglich jedoch 23 rechnergestützte Pathogenitätsvorhersagewerkzeuge wie (i) zehn Funktionsvorhersagemethoden: fitCons [81], FATHMM [88], LRT [70], Mutation Taster [75], Mutation Assessor [76], PolyPhen2 -HVAR [73], PolyPhen2-HDIV [73], SIFT [72], PROVEAN [77] und VEST3 [78] (ii) vier Konservierungsmethoden: PhastCons [68], phyloP [69], GERP++ [74], und SiPhy [71] und (iii) neun Ensemble-Methoden: DANN [83], CADD [79], Eigen [86], GenoCanyon [82], FATHMMMKL [84], MetaLR [80], M-CAP [87], REVEL [85] und MetaSVM [80]. Die Pathogenitätsvorhersage-Scores der 23 Methoden können aus der dbNSFP-Datenbank v3.3 [105] heruntergeladen werden. Diese vorhergesagten Scores wurden häufig in der medizinischen Genetik verwendet, um die schädliche Variante von der gutartigen zu identifizieren. Darüber hinaus wurden neben der VarCards-Datenbank [97] Vorhersage-Scores und andere klinische Informationen und genetische Informationen verwendet. Die Cutoff-Werte, die verwendet wurden, um die schädlichen Missense-Varianten zu identifizieren, wurden aus ANOVAR [106], der dbNSFP-Datenbank [105] und den Originalstudien beobachtet.

7. Künstliche Intelligenz in der präzisen Wirkstoffforschung

Das National Institute of Health (NIH) hob hervor, dass Präzisionsmedizin eine aufkommende Strategie zur Krankheitsprävention und -behandlung ist, die die individuelle Variation in Gen, Lebensstil und Umwelt berücksichtigt [107]. Diese Strategie hilft Forschern und Ärzten, die Krankheit basierend auf dem genetischen Profil der Personen genauer zu verhindern und zu behandeln. Um die Strategie umfassender zu gestalten, bedarf es leistungsfähiger Supercomputer-Anlagen und kreativer Algorithmen, die in noch nie dagewesener Weise selbstständig aus dem trainierten Datensatz lernen können. Künstliche Intelligenz nutzt die kognitive Fähigkeit von Ärzten und biomedizinische Daten für weiteres Lernen, um Ergebnisse zu erzielen. Künstliche Intelligenz wird grob in drei Kategorien eingeteilt: künstliche allgemeine Intelligenz, künstliche schmale Intelligenz (ANI) und künstliche Superintelligenz [108]. ANI befindet sich noch in der Entwicklungsphase und wird voraussichtlich im nächsten Jahrzehnt auf den Markt kommen. ANI hat auch das Kaliber, den Datensatz gründlich zu analysieren, neue Korrelationen zu finden, Schlussfolgerungen zu ziehen und Ärzte zu unterstützen. Etablierte Pharmaunternehmen haben damit begonnen, Deep Learning, Supercomputer und ANI in der präzisen Wirkstoffforschung einzusetzen. Ärzte können die Deep-Learning-Algorithmen in vielen Bereichen der Krankheitsdiagnose und -behandlung wie Onkologie [109], Dermatologie [110], Kardiologie [111] und sogar bei neurodegenerativen Erkrankungen einsetzen. Die Entwicklung solcher Algorithmen ist jedoch entscheidend und kritisch, um das Wissen eines Arztes synchron mit der Algorithmusentwicklung zu untersuchen. Deep Learning zielt darauf ab, einzigartige genetische Muster in großen genomischen Datensätzen und Krankenakten zu identifizieren und folglich genetische Variationen/Mutationen und deren Assoziation mit verschiedenen Krankheiten zu identifizieren. Ein biologischer Ansatz kombiniert mit künstlicher Intelligenz kann neue Algorithmen bilden, die in der Lage sind, die Veränderungen im Zellinneren bei genetischer Modulation in der DNA zu überwachen [112]. Die Entwicklung von Medikamenten ist ein hochkomplizierter Prozess, der einen enormen Zeit- und Finanzaufwand erfordert. In klinischen Studien werden die meisten Medikamente jedoch aufgrund von Toxizität und mangelnder Wirksamkeit abgelehnt. Den Prozess schneller und kostengünstiger zu gestalten, wird einen enormen Einfluss auf die moderne Gesundheitsversorgung und die Entwicklung von Innovationen in der Wirkstoffforschung haben. Atomwise ist das Biopharmaunternehmen, das eine Supercomputing-Anlage mit integrierter künstlicher Intelligenz verwendet, um die Informationen der Datenbank über kleine molekulare Strukturen zu analysieren. Mit der KI-Einrichtung hat Atomwise ein Programm zur Identifizierung von Medikamenten zur Behandlung des Ebola-Virus gestartet. Durch die KI-Technologie hat das Unternehmen zwei bessere Medikamente gefunden, die bei der Abtötung des Ebola-Virus vielversprechender sind. Ohne eine solche KI-Technologie würde eine solche Wirkstoffentdeckung mehrere Jahre dauern, mit dem KI-System jedoch in weniger als einem Tag [113]. Auch wenn der Einsatz von KI bei der Entdeckung von Medikamenten vielversprechend erscheinen mag, müssen diese Pharmaunternehmen die Sicherheit und das Potenzial ihrer Methode mit Peer-Review-Forschung beweisen. Als Fortsetzung dieser kurzen Zusammenfassung wurde die Rolle von Methoden der künstlichen Intelligenz bei der Identifizierung genetischer Varianten/Mutationen aus genetischen Daten, dem virtuellen Screening von kleinen Molekülen und Simulationsprogrammen für die Molekulardynamik unter der entsprechenden Unterüberschrift herausgearbeitet.

7.1. Methoden der künstlichen Intelligenz zur Identifizierung von Varianten/Mutationen aus genetischen Daten

Ziel von Vorhersagemodellen, die auf Ansätzen des maschinellen Lernens aufbauen, Schlussfolgerungen aus einer Stichprobe vergangener Beobachtungen zu ziehen und diese Schlussfolgerungen auf die gesamte Bevölkerung zu übertragen. Vorhergesagte Muster können in verschiedenen Formaten vorliegen, wie nichtlineare, lineare, Graph-, Cluster- und Baumfunktionen [114–116]. Der Arbeitsmechanismus des maschinellen Lernens wird im Allgemeinen in vier Schritte unterteilt: Filterung, Datenvorverarbeitung, Merkmalsextraktion sowie Modellanpassung und Modellbewertung. Überwachte oder unüberwachte Lernansätze sind die beiden Methoden, die in Modellen des maschinellen Lernens verwendet werden. Bei einer überwachten Methode zum Trainieren des Modells ist ein bekannter Satz genetischer Informationen erforderlich (z. B. Start und Ende des Gens, Promotoren, Enhancer, aktive Zentren, funktionelle Regionen, Spleißstellen und regulatorische Regionen), um die prädiktive Modelle. Dieses Modell wird dann verwendet, um neue Gene zu finden, die den Genen des Trainingsdatensatzes ähnlich sind.Beaufsichtigte Verfahren können nur eingesetzt werden, wenn ein bekannter Trainingsdatensatz genetischer Codes zur Verfügung steht. Unüberwachte Methoden werden verwendet, wenn wir daran interessiert sind, den besten Satz unmarkierter Sequenzen zu finden, die die Daten erklären [117]. Methoden des maschinellen Lernens haben ein breites Anwendungsspektrum, und eine der wichtigsten Anwendungen ist die Identifizierung genetischer Varianten und Mutationen [114, 118]. Der Ansatz des maschinellen Lernens namens Convolutional Neural Networks (CNNs) wurde auf die Identifizierung genetischer Varianten und Mutationen angewendet. Die kürzlich entwickelten Softwares Torracina und Campagne analysierten genomische Daten, um genetische Varianten/Mutationen und Indels mithilfe der CNN-Methode zu identifizieren. Im Vergleich zu bisherigen Methoden [119] können CNNs die Performance bei der Variantenidentifikation erheblich verbessern [120]. Wiederkehrende Varianten im Genominhalt können mit dieser Methode effizient identifiziert werden [120, 121]. Bei der CNN-Methode wird die genetische Sequenz als 1D-Fenster mit vier Kanälen (A,C,G,T) analysiert [122]. Genomische Daten, die in Modellen für maschinelles Lernen verwendet werden, werden in drei Kategorien eingeteilt: 60 % als Trainingsdaten, 30 % als Modelltestdaten und 10 % als Modellvalidierungsdaten. Deep Variant ist die jüngste Methode, die von Popolin et al. [123] für SNPs und Indel-Nachweis mit Vorhersagegenauigkeit >99% (bei 90% Rückruf). Deep Sequence ist die Software, die verwendet wird, um die Mutationen zu identifizieren [124], die auch latente Variablen verwendet (ein Modell, das einen Decoder und ein Encoder-Netzwerk verwendet, um die Eingangssequenz vorherzusagen).

7.2. Anwendungen künstlicher Intelligenz bei der Identifizierung von Medikamenten

Die virtuelle Screening-Pipeline wurde entwickelt, um die Kosten des Hochdurchsatz-Screenings zu senken und die Effizienz und Vorhersagbarkeit bei der Optimierung des potenziellen kleinen Moleküls weiter zu erhöhen [125, 126]. Der starke Generalisierungs- und Lernprozess sowie maschinelle Lernmethoden, die Aspekte von KI-Modellen implementieren, wurden in verschiedenen Phasen der virtuellen Screening-Pipeline erfolgreich implementiert. Virtuelles Screening kann in zwei Typen eingeteilt werden: Ligand- und strukturbasiertes virtuelles Screening, wobei ersteres Situationen entspricht, in denen strukturelle Information aus der Liganden-Rezeptor-Bindung verwendet wird, und letzteres Situationen ohne deren Abwesenheit. Da wir die Tiefe der Anwendung von KI-Methoden beim virtuellen Screening kennen, diskutierten wir die neuen Erkenntnisse im strukturbasierten virtuellen Screening, die durch solche Ansätze angetrieben werden.

Mithilfe potenzieller KI-Algorithmen auf Basis nichtparametrischer Scoring-Funktionen wurden fortgeschrittene strukturbasierte virtuelle Screening-Methoden entwickelt. Die Korrelation zwischen den Beiträgen zur freien Protein-Ligand-Bindungsenergie und den Merkmalsvektoren wird implizit durch eine datengetriebene Weise aus vorhandenen experimentellen Daten beobachtet, die die Extraktion sinnvoller nichtlinearer Beziehungen ermöglichen sollte, um verallgemeinernde Bewertungsfunktionen zu erhalten [127–129]. Der RF-basierte RF-Score [128], der SVM-basierte ID-Score [130] und der ANN-basierte NNScore sind die KI-basierten nicht-vorbestimmten Bewertungsfunktionen, die entwickelt wurden, um potenzielle Liganden mit hoher Genauigkeit zu identifizieren. Die neueren fortgeschrittenen KI-basierten nicht-vorherbestimmten Scoring-Methoden übertreffen im Vergleich zu klassischen Ansätzen bei Bindungsaffinitätsvorhersagen, die in mehreren Übersichten diskutiert wurden [131–133].

Um die Leistung der Bewertungsfunktion zu verbessern, haben die meisten KI-Techniken die fünf Hauptalgorithmen übernommen, nämlich SVM, Bayesian, RF, Deep Neural Network und Feed-Forward-ANN-Ansätze. Ballesteret al. untersuchten die Bedeutung von Regressionsalgorithmen des maschinellen Lernens bei der Verbesserung von KI-basierten nicht-vorbestimmten Bewertungsfunktionen, um eine bessere Vorhersage der Bindungsaffinität zwischen Protein-Ligand-Komplexen zu ermöglichen. Basierend auf der Studie haben Ballester et al. entwickelten eine RF-basierte Software zur Vorhersage des Protein-Ligand-Docking-Scores [134, 135]. Einige andere RF-basierte Scoring-Funktionen wie B2B-Score [136], SFC-Score RF [137] und RF-IChem [138] wurden entwickelt, um die Docking-Scores zu berechnen. Im Vergleich mit den oben aufgeführten Werkzeugen sind die Vorhersagen des RF-Scores hervorragend und wurden daher in die istar-Plattform aufgenommen, die ein groß angelegtes Protein-Liganden-Docking beinhaltete [139]. Es wurde eine SVM-basierte automatisierte Pipeline entwickelt, die aus den bekannten Schwächen und Stärken des liganden- und strukturbasierten virtuellen Screenings Nutzen zieht.

Xie et al. [140] entwickelte und verwendete kombinierte Docking- und SVM-basierte Methode. PROFILER ist der automatisierte Workflow von Meslamani et al. [141], um die perfekten Targets mit der höchsten Wahrscheinlichkeit einer Bindung mit bioaktiven Verbindungen zu identifizieren. PROFILER lässt sich in zwei strukturbasierte Ansätze (Protein-Ligand-basierte Pharmakophor-Suche und Docking) und vier Ligand-basierte Ansätze (Unterstützung der Vektorregressions-Affinitätsvorhersage, SVM-Binärklassifizierung, dreidimensionale Ähnlichkeitssuche und Nächste-Nachbar-Affinitätsinterpolation) integrieren. Beim strukturbasierten virtuellen Screening wurde der RF-Score angewendet und hat sich bei der Identifizierung der Ziele gut bewährt. RF-Score-VS ist die erweiterte (DUD-E) Bewertungsfunktion, die mit dem vollständigen Verzeichnis nützlicher Köderdatensätze trainiert wurde (ein Satz von 102 Zielen wurde mit 15.426 aktiven und 893.897 inaktiven Liganden angedockt) [142].

Die Integration von KI-Techniken mit strukturbasierten virtuellen Screening-Methoden ist die vielversprechende Idee bei der Vorhersage wahrscheinlicher potenzieller Liganden. Die KI-Technologie wurde übernommen, um den Postprocessing-Prozess nach dem strukturbasierten virtuellen Screening-Prozess zu verbessern, indem der mit Docking-Algorithmen berechnete Scoring-Prozess unter Verwendung von Machine-Learning-Modellen mit oder ohne Konsens-Scoring überdacht wird. AutoDock Vina kann beispielsweise mit der RF-Score-VS-erweiterten Methode integriert werden, um eine bessere Leistung beim virtuellen Screening zu erzielen. Die Integration fortschrittlicher maschineller Lernalgorithmen und des automatisierten Liganden-Screenings kann dazu beitragen, die Anzahl falsch positiver und falsch negativer Vorhersagen zu reduzieren. Zukünftige Arbeiten auf diesem Gebiet sollen physikalisch-chemische Eigenschaften und Strukturinformationen des Zielproteins berücksichtigen.

7.3. Verbesserte Molekulardynamiksimulationen mit künstlicher Intelligenz

Computerchemie ist eine potenzielle Technologie zur Untersuchung biochemischer und struktureller Verhaltensweisen von Interesse in einer Vielzahl von Umgebungen. Molekulardynamiksimulationen in Kombination mit multiskaligen molekularen oder quantenmechanischen Methoden zur Messung der Bewegung eines biomolekularen Systems auf atomarer Ebene wurden in neueren Studien überwiegend verwendet, um das Verhalten von Molekülen zu verstehen [143–145]. Es ist jedoch zu schwierig, die Bewegung großer Atomgruppen in einem Stück zu analysieren, und es erfordert leistungsfähige Rechenanlagen. Die Integration von KI-Technologie und Computational Chemistry kann das hohe Simulationsvolumen effizient abschließen [146–148]. Ein etabliertes Beispiel ist die Konstruktion neuronaler Netzpotentiale für hochdimensionale Systeme mit der Behler-Parinello-Symmetriefunktion zur Beurteilung von Tausenden von Atomen [149–151]. Viele wissenschaftlich intensivierte Probleme wurden in letzter Zeit untersucht, wie Solvatation für die Schrödinger-Gleichung [152], maschinell gelernte Dichtefunktionalentwicklung [153–156], Klassifikation chemischer Flugbahndaten, Vorhersagen der molekularen Eigenschaften Vorhersage der Elektronen im angeregten Zustand [157, 158], Vielteilchenexpansion [159], Klassifikation chemischer Trajektoriendaten [160], virtuelles Hochdurchsatz-Screening zur Identifizierung neuer Materialien [161–166], heterogene Katalysatoren [167] und Bandlückenvorhersage [168, 169] .

Auf diesem Gebiet wurden viele Fortschritte gemacht, wie zum Beispiel die Einführung einer Neugewichtungskorrektur, um die Ausgabe auf einem geschätzten Theorieniveau mit hoher Präzision zu berechnen (z : semiempirische Quantenchemie), die zur Abschätzung thermochemischer Eigenschaften aktiver Moleküle [170] und neuerdings bei der Berechnung von Änderungen der freien Energie bei chemischen Reaktionen untersucht wurde [171]. Auch wenn es eine schwierige Aufgabe ist, KI-Algorithmen und Computerchemie zu kombinieren, um die chemischen Datensätze zu untersuchen, um die potenziellen Wirkstoffkandidaten in hoher Zeit zu identifizieren, werden die von der Molekularmechanik/Quantenmechanik inspirierten Entwickler künstlicher Intelligenz wahrscheinlich weit verbreitet sein, um die Geschwindigkeit zu beschleunigen den Prozess unter Beibehaltung der quantenmechanischen Präzision. Diese technische Kombination, die KI-Ansätze wirklich unterstützt, wird zu einer Live-Technik in der Wirkstoffforschung.

8. Zusammenfassung und Ausblick

Neue zielgerichtete Medikamente zur Krebsbehandlung müssen entwickelt werden, um die zelluläre Chemotherapieresistenz zu überwinden und zusätzlich das Potenzial haben, „Hub“-Gene zu hemmen. Die Hauptaufgabe dieser identifizierten Medikamente besteht darin, die höchste therapeutische Wirkung durch die Eliminierung von Tumorzellen mit weniger Nebenwirkungen zu erzielen. Das Verständnis der zugrunde liegenden Mechanismen der Reaktion des Patienten auf Krebsmedikamente und die Entschlüsselung ihres genetischen Codes würde zur Identifizierung neuer Präzisionstherapien führen, die die allgemeine Gesundheit und Lebensqualität des Patienten verbessern können. Klassische Methoden der Wirkstoffsuche sind zeit- und kostenaufwendig. Als Reaktion darauf hat die Computerbiologie die Effizienz, um die Präzisionswirkstoffe schnell zu identifizieren. Aktuelle Computerwerkzeuge und Software haben einen Einfluss auf die verschiedenen Phasen des Wirkstoffforschungsprozesses. Eine Reihe von Studien wurde unter Verwendung verschiedener Computeransätze durchgeführt, um die Präzisionsmedikamente zu identifizieren, die für eine bestimmte genetische(n) Variante(n) geeignet sind [91–94]. Die Methodik kombiniert mit der Sammlung genetischer Varianten, Vorhersage der Pathogenität mit verschiedenen Computerwerkzeugen, Modellierung der dreidimensionalen Proteinstruktur mit bestimmten Varianten/en, molekulares Andocken von Standardwirkstoffen mit Varianten-/Mutantenstrukturen, virtuelles Screening zur Identifizierung des spezifischen Wirkstoffs, und die Durchführung von Molekulardynamiksimulationen ermöglichen ein besseres Verständnis der Wirksamkeit des Arzneimittels (Abbildung 1). Eine Einschränkung der angewandten Methodik bestand jedoch darin, dass alle Schritte manuell durchgeführt wurden. Es ist notwendig, radikale Änderungen in der aktuellen Computermethodik vorzunehmen, um Präzisionsmedikamente zu identifizieren. Wir haben in diesem Review gezeigt, wie Ansätze der künstlichen Intelligenz und der Computerbiologie integriert werden können, um Krebspräzisionsmedikamente zu identifizieren und zu entdecken.

Künstliche Intelligenz, die in Computerbiologie integriert ist, hat das Potenzial, die Art und Weise, wie Medikamente entwickelt und entdeckt werden, zu verändern. Dieser Ansatz wurde ursprünglich an der Chapel Hill Eshelman School of Pharmacy der University of North Carolina implementiert. Das System ist als Reinforcement Learning for Structural Evolution bekannt und unter dem Akronym ReLeaSE bekannt. Es ist die Computersoftware, die einen Satz von Algorithmen umfasst, die in zwei neuronale Netzprogramme integriert sind, und die sowohl die Rolle eines Schülers als auch eines Lehrers erfüllen kann. Der Lehrer kennt die sprachlichen Regeln und die Syntax, die dem Vokabular von etwa 1,7 Millionen bekannten biologisch aktiven kleinen Molekülen zugrunde liegt. Nach der Schulung durch den Lehrer wird der Schüler den Prozess im Laufe der Zeit verstehen und schließlich in der Lage sein, potenzielle Moleküle zu finden, die für die Entwicklung neuer Medikamente in Betracht gezogen werden könnten. KI beeinflusst auch die Präzisionsmedizin positiv. Der traditionelle Prozess der Wirkstoffforschung, bei dem kleine Datensätze mit Fokus auf eine bestimmte Krankheit analysiert werden, wird durch KI-Technologie ausgeglichen, die effektive Kombinationen von Chemotherapien basierend auf großen Datensätzen rational entdecken und optimieren kann. Die KI-Systeme basieren auf den experimentellen Ergebnissen und beinhalten keine mechanistischen Hypothesen oder Vorhersagemodelle. Darüber hinaus kann die Technologie der künstlichen Intelligenz auf verschiedene Weise angewendet werden, um beispielsweise Biomarker zu identifizieren, bessere Diagnosen zu entwickeln und neue Medikamente zu identifizieren. Eine wichtige Anwendung der künstlichen Intelligenz liegt jedoch darin, zielgerichtete Präzisionsmedikamente zu finden. Wie wir sehen, hat Künstliche Intelligenz eine Schlüsselrolle bei der Gestaltung der Zukunft des Gesundheitswesens übernommen. Ein automatisiertes integriertes System, das die Analyse genetischer Varianten durch Deep/Machine-Learning-Methoden, Molekularmodellierung, strukturbasiertes virtuelles Hochdurchsatz-Screening, Molekular-Docking und Molekulardynamik-Simulationsmethoden umfasst, wird eine schnelle und genaue Identifizierung von Präzisionsmedikamenten ermöglichen (Abbildung 2 ). Die Entwicklung eines KI-basierten Systems wird in der Tat bei der Wirkstoffforschung und bei der Entdeckung der Krebspräzisionsmedizin von Vorteil sein.

Interessenskonflikte

Die Autoren erklärten keine Interessenkonflikte.

Autorenbeiträge

NN und HYY waren an der Gestaltung der Experimente beteiligt. Erfassung, Analyse und Interpretation der Daten wurden von NN, HYY, EKYY, NQKL, BK und AMAS durchgeführt. Alle Autoren haben dem Manuskript zugestimmt.

Danksagung

Die Autoren nutzen diese Gelegenheit, um der Nanyang Technological University für die Bereitstellung der Einrichtungen und die Ermutigung zur Durchführung dieser Arbeit zu danken.

Verweise

  1. C. Massard, S. Michiels, C. Ferté et al., „Hochdurchsatz-Genomik und klinische Ergebnisse bei schwer zu behandelnden fortgeschrittenen Krebsarten: Ergebnisse der MOSCATO 01-Studie“, Krebsentdeckung, Bd. 7, nein. 6, S. 586–595, 2017. View at: Publisher Site | Google Scholar
  2. F. Meric-Bernstam und G. B. Mills, „Herausforderungen bei der Umsetzung der personalisierten Krebstherapie überwinden“, Nature Bewertungen Klinische Onkologie, Bd. 9, nein. 9, S. 542–548, 2012. View at: Publisher Site | Google Scholar
  3. F. Bray, J. Ferlay, I. Soerjomataram, R. L. Siegel, L. A. Torre und A. Jemal, „Global Cancer Statistics 2018: GLOBOCAN Schätzungen der Inzidenz und Mortalität weltweit für 36 Krebserkrankungen in 185 Ländern“, CA: Ein Krebsjournal für Kliniker, Bd. 68, Nr. 6, S. 394–424, 2018. View at: Publisher Site | Google Scholar
  4. M. M. Jemal, J. Ludwig, D. Xia und G. Szakacs, „Bekämpfung der Arzneimittelresistenz bei Krebs“, Entdeckungsmedizin, Bd. 69, S. 18–23, 2006. Ansicht bei: Google Scholar
  5. M. M. Gottesman, „Mechanismen of Cancer Drug Resistance“, Jährliche Überprüfung der Medizin, Bd. 53, nein. 1, S. 615–627, 2002. View at: Publisher Site | Google Scholar
  6. Weltgesundheitsorganisation, Globales Gesundheitsobservatorium, Weltgesundheitsorganisation, Genf, Schweiz, 2018, http://who.int/gho/database/en/.
  7. F. Sanger, S. Nicklen und A. R. Coulson, „DNA-Sequenzierung mit kettenabbrechenden Inhibitoren“, Proceedings of the National Academy of Sciences, Bd. 74, Nr. 12, S. 5463–5467, 1977. View at: Publisher Site | Google Scholar
  8. M. C. J. Maiden, J. A. Bygraves, E. Feil et al., „Multilocus sequence typing: a portable approach to the identification of clones within Populations of pathogen Microorganisms“, Proceedings of the National Academy of Sciences, Bd. 95, nein. 6, S. 3140–3145, 1998. Ansicht auf: Verlagsseite | Google Scholar
  9. R. Fleischmann, M. Adams, O. White et al., „Whole-genome random sequencing andassembling of Haemophilus influenzae Rd“, Wissenschaft, Bd. 269, Nr. 5223, S. 496–512, 1995. View at: Publisher Site | Google Scholar
  10. E. S. Lander, „Erste Auswirkungen der Sequenzierung des menschlichen Genoms“, Natur, Bd. 470, Nr. 7333, S. 187–197, 2011. Ansicht auf: Verlagsseite | Google Scholar
  11. S. Tripp und M. Grueber, Wirtschaftliche Auswirkungen des Humangenomprojekts, Battelle Memorial Institute, Columbus, OH, USA, 2011, http://www.battelle.org.
  12. L. A. King, F. Nogareda et al., „Ausbruch der Shiga-Toxin-Produktion“ Escherichia coli O104: H4 in Verbindung mit biologischen Bockshornklee-Sprossen, Frankreich, Juni 2011“ Klinische Infektionskrankheiten, Bd. 54, Nr. 11, S. 1588–1594, 2012. Ansicht auf: Verlagsseite | Google Scholar
  13. A. Mellmann, D. Harmsen, C. A. Cummings, E. B. Zentz, S. R. Leopold und A. Rico, „Prospective genomic characterization of the German enterohemorrhagic Escherichia coli O104: H4-Ausbruch durch schnelle Sequenzierungstechnologie der nächsten Generation“ Plus eins, Bd. 6, Artikel-ID e22751, 2011. Ansicht auf: Publisher-Site | Google Scholar
  14. C. Nadon, I. Van Walle, I. Chinen, J. Campos, E. Trees und B. Gilpin, „Pulse Net International vision for the implement of Whole Genome Sequencing for Global Foodborne Disease Surveillance“, Euroüberwachung, Bd. 22, nein. 23, 2017. Ansicht auf: Publisher-Site | Google Scholar
  15. M. Struelens, „Schnelle mikrobielle NGS und Bioinformatik: Umsetzung in die Praxis. Hamburg: 9.–11. Juni“, ECDC-Fahrplan für die Integration der molekularen und genomischen Typisierung in die Überwachung auf europäischer Ebene, Stockholm, Schweden, 2016. Ansicht bei: Google Scholar
  16. M. Margulies, M. Egholm, W. E. Altman, S. Attiya, J. S. Bader und L. A. Bemben, „Genomsequenzierung in mikrofabrizierten High-Density-Pikoliter-Reaktoren“, Natur, Bd. 437, S. 376–80, 2005. Ansicht bei: Google Scholar
  17. H. P. J. Buermans und J. T. den Dunnen, „Sequenzierungstechnologie der nächsten Generation: Fortschritte und Anwendungen“, Biochimica et Biophysica Acta (BBA) – Molekulare Basis der Krankheit, Bd. 1842, Nr. 10, S. 1932–1941, 2014. View at: Publisher Site | Google Scholar
  18. E. L. van Dijk, H. Auger, Y. Jaszczyszyn und C. Thermes, „Zehn Jahre Sequenzierungstechnologie der nächsten Generation“, Trends in der Genetik, Bd. 30, nein. 9, S. 418–426, 2014. View at: Publisher Site | Google Scholar
  19. J. Rothberg und J. Myers, „Halbleitersequenzierung fürs Leben“, Zeitschrift für Biomolekulare Techniken, Bd. 22, S. S41–S2, 2011. Ansicht bei: Google Scholar
  20. R. K.Patel und M. Jain, „NGS QC Toolkit: a Toolkit for Quality Control of Next Generation Sequencing Data“, Plus eins, Bd. 7, nein. 2, Artikel-ID e30619, 2012. Ansicht auf: Publisher-Site | Google Scholar
  21. M. Martin, „Cutadapt entfernt Adaptersequenzen aus Hochdurchsatz-Sequenzierungs-Reads“, EMBnet.Journal, Bd. 17, nein. 10, 2011. Ansicht auf: Website des Herausgebers | Google Scholar
  22. H. Li und R. Durbin, „Schnelles und genaues Ausrichten bei kurzen Lesevorgängen mit Burrows-Wheeler-Transformation“, Bioinformatik, Bd. 25, nein. 14, S. 1754–1760, 2009. Ansicht auf: Verlagsseite | Google Scholar
  23. A. Dobin, C. A. Davis, F. Schlesinger et al., „STAR: ultrafast universal RNA-seq Aligner“, Bioinformatik, Bd. 29, nein. 1, S. 15–21, 2013. Ansicht unter: Verlagsseite | Google Scholar
  24. C. Trapnell, L. Pachter und S. L. Salzberg, „TopHat: Entdeckung von Spleißverbindungen mit RNA-Seq“, Bioinformatik, Bd. 251, S. 105–11, 2009. Ansicht bei: Google Scholar
  25. A. McKenna, M. Hanna, E. Banks et al., „Das Genomanalyse-Toolkit: ein MapReduce-Framework zur Analyse von DNA-Sequenzierungsdaten der nächsten Generation“, Genomforschung, Bd. 20, nein. 9, S. 1297–1303, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  26. M. A. DePristo, E. Banks, R. Poplin et al., „Ein Rahmen für die Entdeckung von Variationen und die Genotypisierung unter Verwendung von DNA-Sequenzierungsdaten der nächsten Generation“, Naturgenetik, Bd. 43, nein. 5, S. 491–498, 2011. View at: Publisher Site | Google Scholar
  27. H. Li, "Ein statistischer Rahmen für SNP-Calling, Mutationsentdeckung, Assoziationskartierung und Populationsgenetische Parameterschätzung aus Sequenzierungsdaten", Bioinformatik, Bd. 27, nein. 21, S. 2987–2993, 2011. View at: Publisher Site | Google Scholar
  28. D. C. Koboldt, Q. Zhang, D. E. Larson et al., „Varscan 2: Entdeckung von somatischen Mutationen und Kopienzahländerungen bei Krebs durch Exom-Sequenzierung“, Genomforschung, Bd. 22, nein. 3, S. 568–576, 2012. View at: Publisher Site | Google Scholar
  29. F. Xu, W. Wang, P. Wang, M. J. Li, C. Sham Pak und J. Wang, „Ein schneller und genauer SNP-Erkennungsalgorithmus für Sequenzierungsdaten der nächsten Generation“, Naturkommunikation, Bd. 3, s. 1258, 2012. Ansicht auf: Website des Herausgebers | Google Scholar
  30. J. Qi, F. Zhao, A. Buboltz und S. C. Schuster, „inGAP: eine integrierte Genomanalyse-Pipeline der nächsten Generation“, Bioinformatik, Bd. 26, nein. 1, S. 127–129, 2009. View at: Publisher Site | Google Scholar
  31. H. Li, J. Ruan und R. Durbin, „Mapping kurzer DNA-Sequenzierungs-Reads und Aufrufen von Varianten mithilfe von Mapping-Qualitätswerten“, Genomforschung, Bd. 18, S. 851–858, 2008. View at: Publisher Site | Google Scholar
  32. H. Xu, J. DiCarlo, R. Satya, Q. Peng und Y. Wang, „Vergleich von Methoden zum Aufrufen von somatischen Mutationen in Amplikon- und ganzen Exom-Sequenzdaten“, BMC Genomics, Bd. 15, nein. 1, s. 244, 2014. Ansicht auf: Website des Herausgebers | Google Scholar
  33. S. Sandmann, A. O. De Graaf, M. Karimi, B. A. Van Der Reijden, E. Hellstrom-Lindberg und J. H. Jansen, „Evaluating Variant Calling Tools for Nonmatched Next Generation Sequencing Data“, Wissenschaftsberichte, Bd. 74, S. 31–69, 2017. Ansicht bei: Google Scholar
  34. V. Bansal, „Eine statistische Methode zum Nachweis von Varianten aus der Neusequenzierung von DNA-Pools der nächsten Generation“, Bioinformatik, Bd. 26, nein. 12, S. i318–i324, 2010. View at: Publisher Site | Google Scholar
  35. A. R. Omran, „Der epidemiologische Übergang: eine Theorie der Epidemiologie des Bevölkerungswandels“, Der Milbank Memorial Fund vierteljährlich, Bd. 49, nein. 4, S. 509–538, 1971. View at: Publisher Site | Google Scholar
  36. O. Gersten und J. R. Wilmoth, „Der Krebsübergang in Japan seit 1951“, Demografische Forschung, Bd. 7, S. 271–306, 2002. Ansicht auf: Verlagsseite | Google Scholar
  37. F. Bray, „Übergänge in der menschlichen Entwicklung und die globale Krebsbelastung“, in Weltkrebsbericht 2014, B. W. Stewart und C. P. Wild, Hrsg., S. 42–55, IARC Press, Lyon, Frankreich, 2014. Ansicht bei: Google Scholar
  38. M. Maule und F. Merletti, „Krebsübergang und Prioritäten für die Krebskontrolle“, Die Lancet-Onkologie, Bd. 13, nein. 8, S. 745-746, 2012. Ansicht auf: Publisher-Site | Google Scholar
  39. J. Ferlay, M. Colombet, I. Soerjomataram et al., „Global and Regional Estimates of the Incidence and Mortality for 38 Cancers“, GLOBOCAN 2018, Internationale Agentur für Krebsforschung/Weltgesundheitsorganisation, Lyon, Frankreich, 2018. Ansicht bei: Google Scholar
  40. D. M. Parkin, F. Bray, J. Ferlay und P. Pisani, „Global Cancer Statistics, 2002“, CA: Ein Krebsjournal für Kliniker, Bd. 55, Nr. 2, S. 74–108, 2005. Ansicht auf: Publisher Site | Google Scholar
  41. A. Jemal, F. Bray, M. M. Center, J. Ferlay, E. Ward und D. Forman, „Global Cancer Statistics“, CA: Ein Krebsjournal für Kliniker, Bd. 61, Nr. 2, S. 69–90, 2011. View at: Publisher Site | Google Scholar
  42. L. A. Torre, F. Bray, R. L. Siegel, J. Ferlay, J. Lortet-Tieulent und A. Jemal, „Global Cancer Statistics, 2012“, CA: Ein Krebsjournal für Kliniker, Bd. 65, Nr. 2, S. 87–108, 2015. View at: Publisher Site | Google Scholar
  43. C. P. Adams und V. V. Brantner, „Schätzung der Kosten für die Entwicklung neuer Medikamente: Sind es wirklich 802 Millionen US-Dollar?“ Gesundheitsangelegenheiten, Bd. 25, nein. 2, S. 420–428, 2006. View at: Publisher Site | Google Scholar
  44. J. A. Di Masi, R. W. Hansen und H. G. Grabowski, „Der Preis der Innovation: neue Schätzungen der Arzneimittelentwicklungskosten“, Zeitschrift für Gesundheitsökonomie, Bd. 22, S. 15–185, 2003. Ansicht auf: Publisher Site | Google Scholar
  45. A. B. Mariotto, K. Robin Yabroff, Y. Shao, E. J. Feuer und M. L. Brown, „Projections of the cost of Cancer Care in the United States: 2010–2020“, JNCI Journal des National Cancer Institute, Bd. 103, Nr. 2, S. 117–128, 2011. View at: Publisher Site | Google Scholar
  46. G. A. Petsko, „Wenn Scheitern die Option sein sollte“ BMC Biologie, Bd. 8, nein. 1, s. 61, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  47. I. Kola und J. Landis: „Kann die Pharmaindustrie die Fluktuationsraten reduzieren?“ Nature Bewertungen Drug Discovery, Bd. 3, nein. 8, S. 711-716, 2004. Ansicht auf: Verlagsseite | Google Scholar
  48. S. C. Gupta, J. H. Kim, S. Prasad und B. B. Aggarwal, „Regulierung von Überleben, Proliferation, Invasion, Angiogenese und Metastasierung von Tumorzellen durch Modulation von Entzündungswegen durch Nutrazeutika“, Bewertungen zu Krebs und Metastasen, Bd. 29, nein. 3, S. 405–434, 2010. Ansicht auf: Publisher-Site | Google Scholar
  49. H. Ledford, „Drogenkandidaten bei Verwechslung entgleist“ Natur, Bd. 28, s. 483, 2012. Ansicht bei: Google Scholar
  50. B. B. Aggarwal, D. Danda, S. Gupta und P. Gehlot, „Modelle zur Prävention und Behandlung von Krebs: Probleme vs. Versprechen“, Biochemische Pharmakologie, Bd. 78, nein. 9, S. 1083–1094, 2009. View at: Publisher Site | Google Scholar
  51. G. Francia und R. S. Kerbel, „Die Messlatte für Krebstherapiemodelle höher legen“, Natur Biotechnologie, Bd. 28, Nr. 6, S. 561–562, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  52. C. G. Begley und L. M. Ellis, „Anhebung der Standards für die präklinische Krebsforschung“, Natur, Bd. 483, Nr. 7391, S. 531–533, 2012. Ansicht auf: Verlagsseite | Google Scholar
  53. Herr Clynes, Multiple Arzneimittelresistenz bei Krebs 2: Molekulare, zelluläre und klinische Aspekte, Kluwer Academic Publishers, Dodrecht, Niederlande, 1998.
  54. J. M. L. Ebos, „Das Biest anstupsen: die Auswirkungen behandlungsinduzierter Metastasen beurteilen“, Krebsforschung, Bd. 75, nein. 17, S. 3427–3435, 2015. View at: Publisher Site | Google Scholar
  55. M. M. Gottesman, J. Ludwig, D. Xia und G. Szakács, „Bekämpfung der Arzneimittelresistenz bei Krebs“, Entdeckungsmedizin, Bd. 6, S. 18–23, 2006. Ansicht bei: Google Scholar
  56. K. S. Sherlach und P. D. Roepe, „Drug Resistance-assoziierte Membranproteine“, Grenzen in der Physiologie, Bd. 5, s. 108, 2014. View at: Publisher Site | Google Scholar
  57. B. Mansoori, A. Mohammadi, S. Davudian, S. Shirjang und B. Baradaran, „Die verschiedenen Mechanismen der Resistenz gegen Krebsmedikamente: eine kurze Übersicht“, Fortschrittliches Pharma-Bulletin, Bd. 7, nein. 3, S. 339–348, 2017. View at: Publisher Site | Google Scholar
  58. T. W. Synold, I. Dussault und B. M. Forman: „Der nukleare Orphan-Rezeptor SXR reguliert koordiniert den Arzneimittelstoffwechsel und den Ausfluss.“ Naturmedizin, Bd. 7, nein. 5, S. 584–590, 2001. View at: Publisher Site | Google Scholar
  59. Y.-Y. Liu, T.-Y. Han, A. E. Giuliano und M. C. Cabot, „Ceramid-Glykosylierung potenziert die zelluläre Multidrug-Resistenz“ Das FASEB-Journal, Bd. 15, nein. 3, S. 719–730, 2001. View at: Publisher Site | Google Scholar
  60. G. Housman, S. Byler, S. Heerboth et al., „Arzneimittelresistenz bei Krebs: ein Überblick“, Krebs, Bd. 6, nein. 3, S. 1769–1792, 2014. View at: Publisher Site | Google Scholar
  61. A. Sarkar und B. Schumacher, „DNA-Reparaturmechanismen in der Krebsentwicklung und -therapie“, Grenzen in der Genetik, Bd. 6, s. 157, 2015. Ansicht auf: Website des Herausgebers | Google Scholar
  62. S. W. Lowe, H. E. Ruley, T. Jacks und D. E. Housman, „p53-abhängige Apoptose moduliert die Zytotoxizität von Antikrebsmitteln“ Zelle, Bd. 74, Nr. 6, S. 957–967, 1993. Ansicht auf: Publisher Site | Google Scholar
  63. B. Rabbani, M. Tekin und N. Mahdieh, „Das Versprechen der Sequenzierung ganzer Exome in der medizinischen Genetik“, Zeitschrift für Humangenetik, Bd. 59, Nr. 1, S. 5–15, 2014. View at: Publisher Site | Google Scholar
  64. S. Goodwin, J. D. McPherson und W. R. McCombie, „Erwachsen werden: zehn Jahre Sequenzierungstechnologien der nächsten Generation“, Natur Bewertungen Genetik, Bd. 17, nein. 6, S. 333–351, 2016. View at: Publisher Site | Google Scholar
  65. M. Lek, K. J. Karczewski, E. V. Minikel et al., „Analysis of protein-coding genetische Variation in 60.706 human“, Natur, Bd. 536, Nr. 7616, S. 285–291, 2016. View at: Publisher Site | Google Scholar
  66. K. M. Boycott, M. R. Vanstone, D. E. Bulman und A. E. MacKenzie, „Genetik seltener Krankheiten im Zeitalter der Sequenzierung der nächsten Generation: Entdeckung bis zur Übersetzung“, Natur Bewertungen Genetik, Bd. 14, Nr. 10, S. 681–691, 2013. View at: Publisher Site | Google Scholar
  67. D. G. MacArthur, T. A. Manolio, D. P. Dimmock et al., „Leitlinien zur Untersuchung der Kausalität von Sequenzvarianten bei menschlichen Erkrankungen“, Natur, Bd. 508, Nr. 7497, S. 469–476, 2014. View at: Publisher Site | Google Scholar
  68. A. Siepel, G. Bejerano, J. S. Pedersen, A. S. Hinrichs, M. Hou und K. Rosenbloom, „Evolutionär konservierte Elemente in Wirbeltier-, Insekten-, Wurm- und Hefegenomes“, Genomforschung, Bd. 15, nein. 8, S. 1034–1050, 2005. View at: Publisher Site | Google Scholar
  69. A. Siepel, K. S. Pollard und D. Haussler, „Neue Methoden zum Nachweis der linienspezifischen Selektion“, in RECOMB 2006. LNCS (LNBI), A. Apostolico, C. Guerra, S. Istrail, P. A. Pevzner und M. Waterman, Hrsg., vol. 3909, S. 90–205, Springer, Heidelberg, Berlin, Deutschland, 2006. Ansicht bei: Google Scholar
  70. S. Chun und J. C. Fay, „Identifikation schädlicher Mutationen in drei menschlichen Genomen“, Genomforschung, Bd. 19, nein. 9, S. 1553–1561, 2009. View at: Publisher Site | Google Scholar
  71. M. Garber, M. Guttman, M. Clamp, M. C. Zody, N. Friedman und X. Xie, „Identifizierung neuartiger eingeschränkter Elemente durch Ausnutzung verzerrter Substitutionsmuster“, Bioinformatik, Bd. 25, nein. 12, S. i54–i62, 2009. View at: Publisher Site | Google Scholar
  72. P. Kumar, S. Henikoff und P. C. Ng, „Vorhersagen der Auswirkungen der Kodierung nicht-synonymer Varianten auf die Proteinfunktion mit dem SIFT-Algorithmus“, Naturprotokolle, Bd. 4, nein. 7, S. 1073–1081, 2009. Ansicht auf: Publisher Site | Google Scholar
  73. I. A. Adzhubei, S. Schmidt, L. Peshkin et al., „Eine Methode und ein Server zur Vorhersage schädlicher Missense-Mutationen“, Naturmethoden, Bd. 7, nein. 4, S. 248-249, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  74. E. V. Kondrashov, D. L. Goode, M. Sirota, G. M. Cooper, A. Sidow und S. Batzoglou, „Identifizierung eines hohen Anteils des menschlichen Genoms unter selektiver Einschränkung mit GERP++“ PLoS Computerbiologie, Bd. 6, nein. 12, Artikel-ID e1001025, 2010. Ansicht auf: Publisher-Site | Google Scholar
  75. J. M. Schwarz, C. Rödelsperger, M. Schuelke und D. Seelow, „MutationTaster evaluiert das krankheitsverursachende Potenzial von Sequenzveränderungen“ Naturmethoden, Bd. 7, nein. 8, S. 575-576, 2010. Ansicht auf: Publisher-Site | Google Scholar
  76. B. Reva, Y. Antipin und C. Sander, „Vorhersagen der funktionellen Auswirkungen von Proteinmutationen: Anwendung auf die Krebsgenomik“, Nukleinsäureforschung, Bd. 39, nein. 17, s. e118, 2011. Ansicht auf: Website des Herausgebers | Google Scholar
  77. Y. Choi, G. E. Sims, S. Murphy, J. R. Miller und A. P. Chan, „Vorhersagen der funktionellen Wirkung von Aminosäuresubstitutionen und Indels“, Plus eins, Bd. 7, nein. 10, Artikel-ID e46688, 2012. Ansicht auf: Publisher-Site | Google Scholar
  78. H. Carter, C. Douville, P. D. Stenson, D. N. Cooper und R. Karchin, „Identifying Mendelian Disease Genes with the Variant Effect Scoring Tool“, BMC Genomic, Bd. 14, Nr. S3, 2013. Ansicht auf: Website des Herausgebers | Google Scholar
  79. M. Kircher, D. M. Witten, P. Jain, B. J. O’Roak, G. M. Cooper und J. Shendure, „Ein allgemeiner Rahmen zur Abschätzung der relativen Pathogenität menschlicher genetischer Varianten“, Naturgenetik, Bd. 46, Nr. 3, S. 310–315, 2014. View at: Publisher Site | Google Scholar
  80. C. Dong, P. Wei, X. Jian et al., „Vergleich und Integration von Deletrizitätsvorhersagemethoden für nicht-synonyme SNVs in Whole Exom Sequencing Studies“, Humane molekulare Genetik, Bd. 24, nein. 8, S. 2125–2137, 2015. View at: Publisher Site | Google Scholar
  81. B. Liu, M. J. Hubisz, I. Gronau und A. Siepel, „Eine Methode zur Berechnung von Wahrscheinlichkeiten von Fitnesskonsequenzen für Punktmutationen im menschlichen Genom“, Naturgenetik, Bd. 47, nein. 3, S. 276–283, 2015. View at: Publisher Site | Google Scholar
  82. Q. Lu, Y. Hu, J. Sun, Y. Cheng, K. H. Cheung und H. Zhao, „Ein statistischer Rahmen zur Vorhersage funktioneller nicht-kodierender Regionen im menschlichen Genom durch integrierte Analyse von Annotationsdaten“ Wissenschaftsberichte, Bd. 5, nein. 1, s. 10576, 2015. Ansicht auf: Website des Herausgebers | Google Scholar
  83. D. Quang, Y. Chen und X. Xie, „DANN: ein Deep-Learning-Ansatz zur Annotation der Pathogenität genetischer Varianten“, Bioinformatik, Bd. 31, Nr. 5, S. 761–763, 2015. View at: Publisher Site | Google Scholar
  84. H. A. Shihab, M. F. Rogers, J. Gough et al., „Ein integrativer Ansatz zur Vorhersage der funktionellen Auswirkungen von nicht-kodierender und kodierender Sequenzvariation“ Bioinformatik, Bd. 31, Nr. 10, S. 1536–1543, 2015. View at: Publisher Site | Google Scholar
  85. N. M. Gaunt, J. H. Rothstein, V. Pejaver et al., „REVEL: eine Ensemble-Methode zur Vorhersage der Pathogenität seltener Missense-Varianten“, Das American Journal of Human Genetics, Bd. 99, nein. 4, S. 877–885, 2016. View at: Publisher Site | Google Scholar
  86. I. Ionita-Laza, K. McCallum, B. Xu und J. D. Buxbaum, „Ein spektraler Ansatz, der funktionale genomische Annotationen für codierende und nicht codierende Varianten integriert“, Naturgenetik, Bd. 48, nein. 2, S. 214–220, 2016. View at: Publisher Site | Google Scholar
  87. K. A. Jagadeesh, A. M. Wenger, M. J. Berger et al., „M-CAP eliminiert eine Mehrheit der Varianten mit ungewisser Bedeutung in klinischen Exomen bei hoher Sensitivität.“ Naturgenetik, Bd. 48, nein. 12, S. 1581–1586, 2016. View at: Publisher Site | Google Scholar
  88. H. A. Bernstein, J. Gough, D. N. Cooper et al., „Vorhersage der funktionellen, molekularen und phänotypischen Konsequenzen von Aminosäuresubstitutionen mit Hidden-Markov-Modellen“, Menschliche Mutation, Bd. 34, Nr. 1, S. 57–65, 2013. View at: Publisher Site | Google Scholar
  89. L. G. Day und R. C. Green, „Diagnostische klinische Genom- und Exom-Sequenzierung“, Das New England Journal of Medicine, Bd. 370, S. 2418–2425, 2013.Ansehen bei: Google Scholar
  90. F. Cheng, J. Zhao und Z. Zhao, „Fortschritte bei computergestützten Ansätzen zur Priorisierung von Treibermutationen und signifikant mutierten Genen in Krebsgenomen“, Briefings in Bioinformatik, Bd. 17, nein. 4, S. 642–656, 2016. View at: Publisher Site | Google Scholar
  91. N. Nagasundaram, H. Zhu, J. Liu et al., „Analyse der Wirkung von Mutationen auf die Proteinfunktion und Entdeckung potenzieller Inhibitoren von CDK4: molekulare Modellierung und Dynamikstudien“, Plus eins, Bd. 7, nein. 10, Beitrags-ID e0133969, 2015. Ansicht bei: Google Scholar
  92. N. Nagasundaram, H. Zhu, J. Liu et al., "Mechanism of Artemisinin Resistance for Malaria PfATP6 L263 Mutations and Discovering potential Antimalarias: an Integrated Computational Approach", Wissenschaftsberichte, Bd. 29, nein. 6, Artikel-ID 30106, 2016. Ansicht bei: Google Scholar
  93. N. Nagasundaram, C. R. Wilson Alphonse, P. V. Samuel Gnana und R. K. Rajaretinam, „Molekulardynamikvalidierung der Crizotinib-Resistenz gegen ALK-Mutationen (L1196M und G1269A) und Identifizierung spezifischer Inhibitoren“, Zeitschrift für Zelluläre Biochemie, Bd. 118, Nr. 10, S. 3462–3471, 2017. View at: Publisher Site | Google Scholar
  94. N. Nagasundaram, K. Y. Edward, N. Q. Khanh Le und H.-Y. Yeh, "In silico-Screening von Zuckeralkoholverbindungen, um das virale Matrixprotein VP40 des Ebola-Virus zu hemmen", Molekularbiologische Berichte, Bd. 46, Nr. 3, S. 3315–3324, 2019. Ansicht bei: Google Scholar
  95. K. A. Johansen Taber, B. D. Dickinson und M. Wilson, „Das Versprechen und die Herausforderungen der Genomsequenzierung der nächsten Generation für die klinische Versorgung“, JAMA Innere Medizin, Bd. 174, Nr. 2, S. 275–280, 2014. View at: Publisher Site | Google Scholar
  96. C. F. Wright, D. R. FitzPatrick und H. V. Firth, „Pädiatrische Genomik: Diagnose seltener Krankheiten bei Kindern“, Natur Bewertungen Genetik, Bd. 19, nein. 5, S. 253–268, 2018. View at: Publisher Site | Google Scholar
  97. J. Li, L. Shi, K. Zhang et al., „VarCards: eine integrierte genetische und klinische Datenbank zur Kodierung von Varianten im menschlichen Genom“, Nukleinsäureforschung, Bd. 46, Nr. D1, S. D1039–D1048, 2017. View at: Publisher Site | Google Scholar
  98. J. Thusberg, A. Olatubosun und M. Vihinen, „Leistung von Mutationspathogenitätsvorhersagemethoden bei Missense-Varianten“, Menschliche Mutation, Bd. 32, S. 58–368, 2011. View at: Publisher Site | Google Scholar
  99. D.G. Grimm, C.-A. Azencott, F. Aicheler et al., „Die Bewertung von Werkzeugen zur Vorhersage der Auswirkungen von Missense-Varianten wird durch zwei Arten von Zirkularität behindert.“ Menschliche Mutation, Bd. 36, nein. 5, S. 513–523, 2015. View at: Publisher Site | Google Scholar
  100. P. Wei, X. Liu und Y.-X. Fu, „Einbeziehen vorhergesagter Funktionen nicht synonymer Varianten in die genbasierte Analyse von Exom-Sequenzierungsdaten: eine vergleichende Studie“, BMC-Verfahren, Bd. 5, nein. S9, p. S20, 2011. Ansicht auf: Website des Herausgebers | Google Scholar
  101. F. Gnad, A. Baucom, K. Mukhyala, G. Manning und Z. Zhang, „Bewertung von Computermethoden zur Vorhersage der Auswirkungen von Missense-Mutationen bei menschlichen Krebserkrankungen“, BMC Genomics, Bd. 14, Nr. S7, 2013. Ansicht bei: Google Scholar
  102. C. Rodrigues, A. Santos-Silva, E. Costa und E. Bronze-Da-Rocha, „Performance of in silico tools for the Evaluation of UGT1A1 Missense Varianten“, Menschliche Mutation, Bd. 36, nein. 12, S. 1215–1225, 2015. View at: Publisher Site | Google Scholar
  103. E. König, J. Rainer und F. S. Domingues, „Computergestützte Bewertung von Merkmalskombinationen zur Vorhersage von pathogenen Varianten“, Molekulare Genetik & Genomische Medizin, Bd. 4, nein. 4, S. 431–446, 2016. Ansicht auf: Publisher-Site | Google Scholar
  104. S. Richards, N. Aziz, S. Bale et al., „Standards and Guidelines for the Interpretation of Sequence Variants: a Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology“, Genetik in der Medizin, Bd. 17, nein. 5, S. 405–423, 2015. View at: Publisher Site | Google Scholar
  105. X. Liu, C. Wu, C. Li und E. Boerwinkle, „dbNSFP v3.0: eine One-Stop-Datenbank für funktionale Vorhersagen und Anmerkungen für menschliche nicht-synonyme und Spleißstellen-SNVs“, Menschliche Mutation, Bd. 37, nein. 3, S. 235–241, 2016. View at: Publisher Site | Google Scholar
  106. K. Wang, M. Li und H. Hakonarson, „ANNOVAR: funktionelle Annotation genetischer Varianten aus Hochdurchsatz-Sequenzierungsdaten“, Nukleinsäureforschung, Bd. 38, Nr. 16, s. e164, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  107. F. Collins, Initiative für Präzisionsmedizin, National Institutes of Health, Bethesda, MD, USA, 2015, https://www.nih.gov/precision-medicine-initiative-cohort-program111.
  108. N. Bostrom, „Superintelligenz: Wege, Gefahren, Strategien. Superintelligenz: Wege, Gefahren, Strategien“, 2014, http://ovidsp.112. Ansehen bei: Google Scholar
  109. D. Wang, A. Khosla und R. Gargeya, „Deep Learning zur Identifizierung von metastasierendem Brustkrebs“, 2016, http://arxiv.org/abs/1606.05718. Ansehen bei: Google Scholar
  110. A. Esteva, B. Kuprel, R. A. Novoa et al., „Klassifikation von Hautkrebs auf dermatologischer Ebene mit tiefen neuronalen Netzen“, Natur, Bd. 542, Nr. 7639, S. 115–118, 2017. View at: Publisher Site | Google Scholar
  111. G. Luo, G. Sun, K. Wang et al., "Eine neuartige Methode zur Vorhersage des linksventrikulären Volumens basierend auf einem Deep-Learning-Netzwerk in der kardialen MRT", Informatik in der Kardiologie, Bd. 2–5, 2010. Ansicht bei: Google Scholar
  112. Deep Genomics, 2017, https://www.deepgenomics.com/.
  113. Atomwise findet erste Hinweise auf neue Ebola-Behandlungen, 2017, http://www.atomwise.com/atomwise-finds-first-evidence-towards-newebola-treatments.
  114. M. W. Libbrecht und W. S. Noble, „Anwendungen des maschinellen Lernens in Genetik und Genomik“, Natur Bewertungen Genetik, Bd. 16, nein. 6, S. 321–332, 2015. View at: Publisher Site | Google Scholar
  115. I. Sutskever, O. Vinyals und Q. V. Le, Fortschritte bei neuronalen Informationsverarbeitungssystemen, MIT Press, Cambridge, MA, USA, 2014.
  116. T. Wasson und A. J. Hartemink, „Ein Ensemble-Modell der kompetitiven Multifaktor-Bindung des Genoms“, Genomforschung, Bd. 19, S. 2102–2112, 2009. View at: Publisher Site | Google Scholar
  117. K. Y. Yip, C. Cheng und M. Gerstein, „Maschinelles Lernen und Genom-Annotation: eine Übereinstimmung, die gemeint sein soll?“ Genombiologie, Bd. 14, Nr. 5, s. 205, 2013. Ansicht auf: Website des Herausgebers | Google Scholar
  118. J. Zhou und O. G. Troyanskaya, „Vorhersage der Auswirkungen von nicht codierenden Varianten mit Deep Learning-basiertem Sequenzmodell“, Naturmethoden, Bd. 12, nein. 10, S. 931–934, 2015. Ansicht auf: Publisher-Site | Google Scholar
  119. R. Torracinta und F. Campagne, „Training Genotype Callers with Neural Networks“, 2016, bioRxiv, 097469. Ansicht bei: Google Scholar
  120. A. Krizhevsky, I. Sutskever und G. E. Hinton, „ImageNet-Klassifizierung mit Deep Convolutional Neural Networks“, in Proceedings of the 25th International Conference on Neural Information Processing Systems, S. 1097–1105, Lake Tahoe, NV, USA, 2012. Ansicht bei: Google Scholar
  121. J. Lanchantin, Z. Lin und Y. Qi, „Deep Motiv: Visualisierung genomischer Sequenzklassifikationen“, 2016, http://arxiv.org/abs/1605,01133. Ansehen bei: Google Scholar
  122. H. Zeng, M. D. Edwards, G. Liu und D. K. Gifford, „Convolutional Neural Network Architectures for Predicting DNA-Protein Binding“, Bioinformatik, Bd. 32, S. 121–127, 2016. Ansicht auf: Verlagsseite | Google Scholar
  123. R. Poplin, D. Newburger, J. Dijamco et al., „Erstellen eines universellen SNP- und Small-Indel-Varianten-Callers mit tiefen neuronalen Netzen“, 2018, bioRxiv. Ansehen bei: Google Scholar
  124. J. Schreiber, M. Libbrecht, J. Bilmes und W. Noble, „Nucleotide Sequence and DNAsei Sensitivity are Predictive of 3d chromatin architecture“, 2017, bioRxiv, 103614. Ansicht bei: Google Scholar
  125. G. Schneider, „Virtuelles Screening: eine endlose Treppe?“ Nature Bewertungen Drug Discovery, Bd. 9, nein. 4, S. 273–276, 2010. View at: Publisher Site | Google Scholar
  126. T. Scior, A. Bender, G. Tresadern et al., „Erkennen von Fallstricken beim virtuellen Screening: eine kritische Überprüfung“, Zeitschrift für chemische Information und Modellierung, Bd. 52, nein. 4, S. 867–881, 2012. View at: Publisher Site | Google Scholar
  127. Q. U. Ain, A. Aleksandrova, F. D. Roessler und P. J. Ballester, „Scoring-Funktionen für maschinelles Lernen zur Verbesserung der strukturbasierten Bindungsaffinitätsvorhersage und des virtuellen Screenings“, Wiley Interdisziplinäre Reviews: Computational Molecular Science, Bd. 5, nein. 6, S. 405–424, 2015. View at: Publisher Site | Google Scholar
  128. P. J. Ballester und J. B. O. Mitchell, „Ein Ansatz des maschinellen Lernens zur Vorhersage der Protein-Liganden-Bindungsaffinität mit Anwendungen für das molekulare Andocken“, Bioinformatik, Bd. 26, nein. 9, S. 1169–1175, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  129. S. L. Kinnings, N. Liu, P. J. Tonge, R. M. Jackson, L. Xie und P. E. Bourne, „Eine auf maschinellem Lernen basierende Methode zur Verbesserung der Docking-Scoring-Funktionen und ihrer Anwendung auf die Wiederverwendung von Medikamenten.“ Zeitschrift für chemische Information und Modellierung, Bd. 51, Nr. 2, S. 408–419, 2011. View at: Publisher Site | Google Scholar
  130. G.-B. Li, L.-L. Yang, W.-J. Wang, L.-L. Li und S.-Y. Yang, „ID-Score: eine neue empirische Bewertungsfunktion, die auf einem umfassenden Satz von Deskriptoren für Protein-Ligand-Interaktionen basiert“, Zeitschrift für chemische Information und Modellierung, Bd. 53, nein. 3, S. 592–600, 2013. View at: Publisher Site | Google Scholar
  131. T. Cheng, Q. Li, Z. Zhou, Y. Wang und S. H. Bryant, „Strukturbasiertes virtuelles Screening für die Wirkstoffforschung: eine problemzentrierte Überprüfung“, Das AAPS-Journal, Bd. 14, Nr. 1, S. 133–141, 2012. View at: Publisher Site | Google Scholar
  132. S.-Y. Huang, S. Z. Grinter und X. Zou, „Scoring-Funktionen und ihre Bewertungsmethoden für das Protein-Liganden-Docking: jüngste Fortschritte und zukünftige Richtungen“, Physikalische Chemie Chemische Physik, Bd. 12, nein. 40, S. 12899–12908, 2010. Ansicht auf: Verlagsseite | Google Scholar
  133. D.-L. Ma, D.S.-H. Chan und C.-H. Leung, „Neupositionierung von Medikamenten durch strukturbasiertes virtuelles Screening“, Bewertungen der Chemischen Gesellschaft, Bd. 42, Nr. 5, S. 2130–2141, 2013. View at: Publisher Site | Google Scholar
  134. P. J. Ballester, A. Schreyer und T. L. Blundell: „Führt eine genauere chemische Beschreibung von Protein-Ligand-Komplexen zu einer genaueren Vorhersage der Bindungsaffinität?“ Zeitschrift für chemische Information und Modellierung, Bd. 54, Nr. 3, S. 944–955, 2014. View at: Publisher Site | Google Scholar
  135. H.Li, K.-S. Leung, M.-H. Wong und P. J. Ballester, „Improving AutoDock vina using Random Forest: the wachsende Genauigkeit der Bindungsaffinitätsvorhersage durch die effektive Nutzung größerer Datensätze“, Molekulare Informatik, Bd. 34, Nr. 2-3, S. 115–126, 2015. View at: Publisher Site | Google Scholar
  136. Q. Liu, C. K. Kwoh und J. Li, „Bindungsaffinitätsvorhersage für Protein-Ligand-Komplexe basierend auf β Kontakte und B-Faktor“, Zeitschrift für chemische Information und Modellierung, Bd. 53, nein. 11, S. 3076–3085, 2013. View at: Publisher Site | Google Scholar
  137. D. Zilian und C. A. Sotriffer, „SFCscoreRF: eine zufällige Wald-basierte Bewertungsfunktion für eine verbesserte Affinitätsvorhersage von Protein-Ligand-Komplexen“, Zeitschrift für chemische Information und Modellierung, Bd. 53, nein. 8, S. 1923–1933, 2013. View at: Publisher Site | Google Scholar
  138. J. Gabel, J. Desaphy und D. Rognan, „Hüten Sie sich vor auf maschinellem Lernen basierenden Bewertungsfunktionen – zur Gefahr der Entwicklung von Blackboxen“, Zeitschrift für chemische Information und Modellierung, Bd. 54, Nr. 10, S. 2807–2815, 2014. View at: Publisher Site | Google Scholar
  139. H. Li, K. S. Leung, P. J. Ballester und M. H. Wong, „Istar: a web platform for large-scale protein-ligand docking“, Plus eins, Bd. 9, Artikel-ID e85678, 2014. Ansicht auf: Publisher-Site | Google Scholar
  140. Q.-Q. Xie, L. Zhong, Y.-L. Pan et al., „Kombiniertes SVM-basiertes und Docking-basiertes virtuelles Screening zum Abrufen neuartiger Inhibitoren von c-met“, Europäische Zeitschrift für Medizinische Chemie, Bd. 46, Nr. 9, S. 3675–3680, 2011. View at: Publisher Site | Google Scholar
  141. J. Meslamani, R. Bhajun, F. Martz und D. Rognan, „Computational Profiling of bioactive Compounds using a target-dependent composite workflow“, Zeitschrift für chemische Information und Modellierung, Bd. 53, nein. 9, S. 2322–2333, 2013. View at: Publisher Site | Google Scholar
  142. M. Wojcikowski, P. J. Ballester und P. Siedlecki, „Performance of Machine-Learning Scoring Functions in Structure-based Virtual Screening“, Wissenschaftsberichte, Bd. 7, s. 46710, 2017. Ansicht auf: Website des Herausgebers | Google Scholar
  143. H. M. Senn und W. Thiel, „QM/MM-Studien von Enzymen“, Aktuelle Meinung in der chemischen Biologie, Bd. 11, nein. 2, S. 182–187, 2007. View at: Publisher Site | Google Scholar
  144. G. D. M. Seabra, R. C. Walker, M. Elstner, D. A. Case und A. E. Roitberg, „Implementation of the SCC-DFTB method for hybrid QM/MM simulations within the amber Molecular Dynamics Package“, Die Zeitschrift für Physikalische Chemie A, Bd. 111, Nr. 26, S. 5655–5664, 2007. View at: Publisher Site | Google Scholar
  145. H. M. Senn und W. Thiel, „QM/MM-Methoden für biomolekulare Systeme“, Angewandte Chemie Internationale Ausgabe, Bd. 48, nein. 7, S. 1198–1229, 2009. View at: Publisher Site | Google Scholar
  146. L. Li, J. C. Snyder, I. M. Pelaschier et al., „maschinell gelernte Dichtefunktionale verstehen“, Internationale Zeitschrift für Quantenchemie, Bd. 116, Nr. 11, S. 819–833, 2016. View at: Publisher Site | Google Scholar
  147. M. Rupp, „Maschinelles Lernen für die Quantenmechanik in Kürze“, Internationale Zeitschrift für Quantenchemie, Bd. 115, Nr. 16, S. 1058–1073, 2015. View at: Publisher Site | Google Scholar
  148. J. Behler, „Repräsentation potentieller Energieflächen durch hochdimensionale neuronale Netzpotentiale“, Journal of Physics: Kondensierte Materie, Bd. 26, nein. 18, Artikel-ID 183001 2014. Ansicht auf: Publisher-Site | Google Scholar
  149. J. Behler, „Perspektive: Potenziale des maschinellen Lernens für atomistische Simulationen“, Die Zeitschrift für Chemische Physik, Bd. 145, Artikel-ID 170901, 2016. Ansicht auf: Publisher-Site | Google Scholar
  150. J. Behler, „Konstruktion von hochdimensionalen neuronalen Netzwerkpotentialen: eine Tutorial-Rezension“, Internationale Zeitschrift für Quantenchemie, Bd. 115, Nr. 16, S. 1032–1050, 2015. View at: Publisher Site | Google Scholar
  151. J. Behler, „Erste Prinzipien neuronaler Netzwerkpotentiale für reaktive Simulationen großer molekularer und kondensierter Systeme“, Angewandte Chemie Internationale Ausgabe, Bd. 56, nein. 42, S. 12828–12840, 2017. View at: Publisher Site | Google Scholar
  152. K. Mills, M. Spanner und I. Tamblyn, „Deep Learning und die Schroodinger-Gleichung“, Physische Überprüfung A, Bd. 96, Artikel-ID 042113, 2017. Ansicht auf: Publisher-Site | Google Scholar
  153. J. C. Snyder, M. Rupp, K. Hansen, K. R. Muller und K. Burke, „Finding density Functionals with Machine Learning“, Physische Überprüfungsschreiben, Bd. 108, Artikel-ID 253002, 2012. Ansicht auf: Publisher-Site | Google Scholar
  154. F. Brockherde, L. Vogt, L. Li, M. E. Tuckerman, K. Burke und K. R. Muller, „Umgehung der Kohn-Sham-Gleichungen mit maschinellem Lernen“, Naturkommunikation, Bd. 8, nein. 1, s. 872, 2017. Ansicht auf: Publisher-Site | Google Scholar
  155. K. Yao und J. Parkhill, „Kinetische Energie von Kohlenwasserstoffen als Funktion der Elektronendichte und neuronaler Faltungsnetze“, Journal of Chemical Theory and Computation, Bd. 12, nein. 3, S. 1139–1147, 2016. Ansicht auf: Website des Herausgebers | Google Scholar
  156. J. C. Snyder, M. Rupp, K. Hansen, L. Blooston, K. R. Muller und K. Burke, „Orbitalfreies Aufbrechen von Bindungen durch maschinelles Lernen“, Die Zeitschrift für Chemische Physik, Bd. 139, Nr. 22, Artikel-ID 224104, 2013. Ansicht auf: Publisher-Site | Google Scholar
  157. F. Liu, L. Du, D. Zhang und J. Gao, „Direktes Lernen versteckter angeregter Wechselwirkungsmuster aus der Ab-initio-Dynamik und ihre Implikation als alternative molekulare Mechanismusmodelle“, Wissenschaftsberichte, Bd. 7, s. 8737, 2017. Ansicht auf: Publisher-Site | Google Scholar
  158. F. Häse, S. Valleau, E. Pyzer-Knapp und A. Aspuru-Guzik, „Maschinelles Lernen der Exzitonendynamik“, Chemische Wissenschaft, Bd. 7, nein. 8, S. 5139–5147, 2016. View at: Publisher Site | Google Scholar
  159. K. Yao, J. E. Herr und J.Parkhill, „Die Vielteilchenexpansion kombiniert mit neuronalen Netzen“, Die Zeitschrift für Chemische Physik, Bd. 146, Nr. 1, Artikel-ID 014106, 2017. Ansicht auf: Publisher-Site | Google Scholar
  160. B. K. Carpenter, G. S. Ezra, S. C. Farantos, Z. C. Kramer und S. Wiggins, „Empirical Classification of Trajectory Data: an chance for the use of Machine Learning in Molecular Dynamics“, Die Zeitschrift für Physikalische Chemie B, Bd. 122, nein. 13, S. 3230–3241, 2018. View at: Publisher Site | Google Scholar
  161. A. Mannodi-Kanakkithodi, G. Pilania, T. D. Huan, T. Lookman und R. Ramprasad, „Machine Learning Strategy for Accelerated Design of Polymer Dielektrika“, Wissenschaftsberichte, Bd. 6, nein. 1, Artikel-ID 20952, 2016. Ansicht auf: Publisher-Site | Google Scholar
  162. T. D. Huan, A. Mannodi-Kanakkithodi und R. Ramprasad, „Accelerated Materials Property Predictions and Design using Mot-based Fingerprints“, Physische Überprüfung B, Bd. 92, Nr. 1, Artikel-ID 014106, 2015. Ansicht auf: Publisher-Site | Google Scholar
  163. G. Pilania, C. Wang, X. Jiang, S. Rajasekaran und R. Ramprasad, „Beschleunigung von Vorhersagen von Materialeigenschaften durch maschinelles Lernen“, Wissenschaftsberichte, Bd. 3, nein. 1, s. 2810, 2013. Ansicht auf: Website des Herausgebers | Google Scholar
  164. J. Lee, A. Seko, K. Shitara, K. Nakayama und I. Tanaka, „Vorhersagemodell der Bandlücke für anorganische Verbindungen durch Kombination von Dichtefunktionaltheorie-Berechnungen und Techniken des maschinellen Lernens“, Physische Überprüfung B, Bd. 93, nein. 11, s. 115104, 2016. Ansicht auf: Website des Herausgebers | Google Scholar
  165. E. O. Pyzer-Knapp, K. Li und A. Aspuru-Guzik, „Lernen vom Harvard Clean Energy Project: the use of neuronal network to Accelerating Material Discovery“, Fortschrittliche Funktionsmaterialien, Bd. 25, nein. 41, S. 6495–6502, 2015. View at: Publisher Site | Google Scholar
  166. R. Gómez-Bombarelli, J. Aguilera-Iparraguirre, T. D. Hirzel et al., „Design of Efficiency Molecular Organic Light Emitting Diodes by a High Throughput Virtual Screening and Experimental Approach“, Naturmaterialien, Bd. 15, nein. 10, S. 1120–1127, 2016. View at: Publisher Site | Google Scholar
  167. X. Ma, Z. Li, L. E. K. Achenie und H. Xin, „Machine-learning-augmented chemisorption model for CO2 Screening von Elektroreduktionskatalysatoren“, Das Journal of Physical Chemistry Letters, Bd. 6, nein. 18, S. 3528–3533, 2015. View at: Publisher Site | Google Scholar
  168. G. Pilania, J. E. Gubernatis und T. Lookman, „Multi-Fidelity Machine Learning Models for Accuracy Bandgap Predictions of Solids“, Computergestützte Materialwissenschaft, Bd. 129, S. 156–163, 2017. View at: Publisher Site | Google Scholar
  169. G. Pilania, A. Mannodi-Kanakkithodi, B. Uberuaga, R. Ramprasad, J. Gubernatis und T. Lookman, „Machine learning bandgaps of double perovskites“, Wissenschaftsberichte, Bd. 6, nein. 1, Artikel-ID 19375, 2016. Ansicht auf: Publisher-Site | Google Scholar
  170. R. Ramakrishnan, P. O. Dral, M. Rupp und O. A. von Lilienfeld, „Big Data meets Quantum Chemistry Approximations: the Δ-machine learning approach“, Journal of Chemical Theory and Computation, Bd. 11, nein. 5, S. 2087–2096, 2015. View at: Publisher Site | Google Scholar
  171. L. Shen, J. Wu und W. Yang, „Multiskalige Quantenmechanik/Molekularmechanik-Simulationen mit neuronalen Netzen“, Journal of Chemical Theory and Computation, Bd. 12, nein. 10, S. 4934–4946, 2016. View at: Publisher Site | Google Scholar

Urheberrechte ©

Copyright © 2019 Nagasundaram Nagarajan et al. Dies ist ein Open-Access-Artikel, der unter der Creative Commons Attribution License vertrieben wird und die uneingeschränkte Verwendung, Verbreitung und Reproduktion in jedem Medium erlaubt, vorausgesetzt, das Originalwerk wird ordnungsgemäß zitiert.


Was passiert während einer Phase-3-Arzneimittelstudie?

In der ersten Phase einer klinischen Arzneimittelstudie wird ein neues Medikament an einer kleinen Patientengruppe getestet. Sobald das Medikament als sicher genug erachtet wird, um weitere Tests zu rechtfertigen, geht es in Phase 2 über, in der es an einer viel größeren Patientenpopulation getestet wird. Während einer Phase-3-Studie wird ein neues Medikament in der Regel an mehreren Tausend Patienten getestet, die an der Erkrankung oder Krankheit leiden, die es behandeln soll. Phase-3-Medikamentenstudien können zwischen einem und vier Jahren dauern, und da sie so lang sind, zeigen sie eher langfristige Nebenwirkungen als die früheren Studien.

Patienten in einer Phase-3-Studie werden nach dem Zufallsprinzip entweder dem aktuellen Behandlungsstandard für ihre Erkrankung oder der neuen getesteten Behandlung zugewiesen. Arzneimittelstudien der Phase 3 sind in der Regel doppelblind, dh weder die Patienten noch die Forscher wissen, welche Gruppe die neue Behandlung oder den bestehenden Standard erhält. Der Vorteil der Durchführung von Medikamententests besteht darin, dass Forscher einen völlig unvoreingenommenen Blick auf die Nebenwirkungen und den Nutzen der jeweiligen Behandlung erhalten.

Wie in den ersten beiden Phasen der Arzneimittelprüfung werden auch während einer Phase-3-Studie die beteiligten Patienten engmaschig auf Nebenwirkungen und Verbesserungen überwacht. Wenn sich das Medikament als wirksam und sicher erwiesen hat, kann das Unternehmen, das es herstellt, die Zulassung der FDA beantragen, um es an die Öffentlichkeit zu bringen. Die meisten Medikamente, die in Phase 3 eintreten, schließen diese Phase des Testverfahrens erfolgreich ab.


Medikamente mit Stammzellen testen

Das Testen der Toxizität pharmazeutischer Kandidaten an Laborratten, bevor die Verbindungen als sicher genug für klinische Studien am Menschen beurteilt werden, ist bekanntermaßen unzuverlässig. Verbindungen, die bei Nagetieren sicher erscheinen, erweisen sich oft als giftig für den Menschen.

Toxische Ziele: Forscher der University of Wisconsin-Madison verwendeten embryonale Stammzellen, um die toxischen Wirkungen von Valproat nachzuweisen, einem Antiepileptikum, das mit Fällen von Autismus und Spina bifida in Verbindung gebracht wurde.

Um die Toxizität besser vorhersagen zu können, wendet sich Gabriela Cezar, Assistenzprofessorin für Tierwissenschaften an der University of Wisconsin-Madison, menschlichen embryonalen Stammzellen zu. In der aktuellen Ausgabe von Stammzellen und Entwicklung, Cezar und ihre Kollegen zeigen einen neuen Weg, um die Toxizität von Medikamenten zu testen: indem sie das Verhalten embryonaler Stammzellen überwachen, die einem Wirkstoffkandidaten ausgesetzt sind. Die Untersuchung, wie potenzielle Medikamente embryonale Stammzellen beeinflussen, könnte eine viel genauere Vorhersage der potenziellen Toxizität eines Medikaments liefern als herkömmliche Tiermodelle.

Während der normalen Entwicklung produzieren embryonale Stammzellen Moleküle, die den Zellstoffwechsel und die Differenzierung steuern. Cezar stellte die Hypothese auf, dass die Exposition gegenüber einem toxischen Medikament die Konzentrationen dieser Moleküle verzerren kann, die Zell-Zell-Interaktionen stören und eine biologische Kaskade verursachen können, die zu möglichen Entwicklungsstörungen führt.

Als Proof of Concept untersuchte Cezars Gruppe die Reaktion menschlicher embryonaler Stammzellen auf Valproat, ein Antiepileptikum, das mit Fällen von Autismus und Spina bifida bei den Nachkommen von Müttern, die mit dem Medikament behandelt wurden, in Verbindung gebracht wurde. „Entwicklungsstörungen und Geburtsfehler beginnen während der Schwangerschaft im Mutterleib, und wir haben keine Möglichkeit, Mechanismen zu messen oder zu untersuchen, die am Ausbruch dieser Krankheiten beteiligt sein könnten“, sagt Cezar. „Mit menschlichen embryonalen Stammzellen können wir die Entwicklung des menschlichen Gehirns rekapitulieren und konkrete Veränderungen von Chemikalien zu Medikamenten wie Valproat messen.“

In dem Experiment führte Cezar verschiedene Dosierungen von Valproat, von sehr niedrig bis hoch, in drei Sätze embryonaler Stammzellkulturen ein und veränderte die Dosierungen über verschiedene Zeiträume. Kontrollgruppen enthielten Stammzellen, die dem Arzneimittel nicht ausgesetzt waren. Cezar ließ dann jede Probe durch ein Massenspektrometer laufen, das die Konzentrationen der in der Kultur vorhandenen Moleküle maß.

Im Vergleich zur Kontrollgruppe zeigten Proben mit Valproat signifikante Veränderungen der Konzentrationen von zwei Schlüsselmolekülen: Glutamat und Kynurenin. Beide Moleküle sind stark an der frühen Entwicklung des Gehirns beteiligt, und Cezar fand heraus, dass die Exposition gegenüber Valproat zu Spitzen in den Konzentrationen jedes Moleküls führte, was darauf hindeutet, dass solche Moleküle als Biomarker für die potenzielle Toxizität eines Arzneimittels dienen können.

„Wir sagen eine Toxizität für den Menschen in menschlichen Zellen voraus“, sagt Cezar. „Durch die Entdeckung dieser messbaren Toxizitätsmoleküle hoffen wir, andere schwerwiegende Nebenwirkungen vorstellen zu können, die durch das Testen von Arzneimitteln an Tieren verursacht werden, in der Hoffnung, den Patienten sicherere Arzneimittel zur Verfügung zu stellen.“

Die Verwendung embryonaler Stammzellen als Testgrundlage für die Arzneimittelsicherheit ist jedoch noch ein relativ neues Konzept, und nach Ansicht einiger Wissenschaftler ist noch viel mehr Forschung erforderlich, bevor festgestellt werden kann, dass die Methode praktikabel ist. Steven Tannenbaum, Professor für Chemie und Toxikologie am MIT, sagt, dass der Stoffwechsel von Medikamenten im Körper ein komplexer Prozess ist. Insbesondere Medikamente, die in den Körper aufgenommen werden, werden zuerst in der Leber verarbeitet und nehmen verschiedene Formen an, bevor sie durch den Rest des Körpers und in die Gebärmutter gelangen. „Mehr als 90 Prozent der Medikamente werden in der Leber zu anderen Formen des Medikaments verstoffwechselt, von denen einige toxisch sein können“, sagt Tannenbaum. „Diese Gruppe hat Valproinsäure, die normalerweise im Körper weitgehend metabolisiert wird, eingenommen und unter unrealistischen Bedingungen ausgesetzt.“

Cezar sagt, dass eine mögliche Lösung darin bestehen könnte, embryonale Stammzellen dazu zu bringen, zu Leberzellen heranzuwachsen, bevor sie Medikamente ausgesetzt werden – ein Projekt, das sie in Zukunft möglicherweise aufnehmen wird. „Solange wir die Zellen aus menschlichen embryonalen Stammzellen herstellen können, könnten wir, sobald wir die reifen Zellen in einer Schale haben, Biomarker für die Lebertoxizität entdecken“, sagt Cezar.


Verdünnungstests

Abbildung 1. In einem Verdünnungstest ist die MHK die niedrigste Verdünnung, die eine Trübung (Trübung) verhindert. In diesem Beispiel beträgt die MHK 8 µg/ml. Auf Platten, denen das antimikrobielle Arzneimittel fehlt, kann Brühe aus Proben ohne Trübung inokuliert werden. Die niedrigste Verdünnung, die 99,9 % des Ausgangs-Inokulums abtötet, wird auf den Platten beobachtet, ist MBC. (Kredit: Änderung der Arbeit von Suzanne Wakim)

Wie bereits erwähnt, erlauben die Grenzen des Kirby-Bauer-Scheibendiffusionstests keinen direkten Vergleich der antibakteriellen Potenzen, um die Auswahl der besten therapeutischen Wahl zu treffen. Antibakterielle Verdünnungstests können jedoch verwendet werden, um die eines bestimmten Medikaments zu bestimmen minimale Hemmkonzentration (MHK), die niedrigste Wirkstoffkonzentration, die das sichtbare Bakterienwachstum hemmt, und minimale bakterizide Konzentration (MBC), die niedrigste Wirkstoffkonzentration, die ≥ 99,9 % des anfänglichen Inokulums abtötet. Die Bestimmung dieser Konzentrationen hilft, das richtige Medikament für einen bestimmten Krankheitserreger zu identifizieren. Für den Makrobouillon-Verdünnungsassay wird eine Verdünnungsreihe des Arzneimittels in Bouillon in Reagenzgläsern hergestellt und die gleiche Anzahl von Zellen eines Testbakterienstamms wird in jedes Röhrchen gegeben (Abbildung 1). Die MHK wird bestimmt, indem die Röhrchen untersucht werden, um die niedrigste Wirkstoffkonzentration zu finden, die das sichtbare Wachstum hemmt. Dies wird als Trübung (Trübung) in der Brühe beobachtet. Röhrchen ohne sichtbares Wachstum werden dann auf Agarmedien ohne Antibiotikum geimpft, um den MBC zu bestimmen. Im Allgemeinen sollten die Serumspiegel eines antibakteriellen Mittels zur Behandlung einer Infektion mindestens drei- bis fünfmal über der MHK liegen.

Der MIC-Assay kann auch mit 96-Well-Mikroverdünnungsschalen durchgeführt werden, die die Verwendung kleiner Volumina und automatischer Abgabevorrichtungen sowie das Testen mehrerer antimikrobieller Mittel und/oder Mikroorganismen in einer Schale ermöglichen (Abbildung 2). MICs werden als die niedrigste Konzentration interpretiert, die das sichtbare Wachstum hemmt, genauso wie bei der Makrobouillon-Verdünnung in Reagenzgläsern. Wachstum kann auch visuell oder mit a . interpretiert werden Spektrophotometer oder eine ähnliche Vorrichtung zum Nachweis einer Trübung oder einer Farbänderung, wenn auch ein geeignetes biochemisches Substrat, das die Farbe bei Vorhandensein von Bakterienwachstum ändert, in jeder Vertiefung enthalten ist.

Abbildung 2. Ein Mikroverdünnungstablett kann auch verwendet werden, um die MHK mehrerer antimikrobieller Medikamente in einem einzigen Assay zu bestimmen. In diesem Beispiel nehmen die Wirkstoffkonzentrationen von links nach rechts zu und die Reihen mit Clindamycin, Penicillin und Erythromycin wurden links von der Platte angezeigt. Für Penicillin und Erythromycin sind die niedrigsten Konzentrationen, die das sichtbare Wachstum hemmten, durch rote Kreise gekennzeichnet und betrugen 0,06 µg/ml für Penicillin und 8 µg/ml für Erythromycin. Für Clindamycin wurde bei jeder Konzentration bis zu 32 µg/ml sichtbares Bakterienwachstum beobachtet und die MHK wird als >32 µg/ml interpretiert. (Kredit: Änderung der Arbeit der Centers for Disease Control and Prevention)

Die Etest ist eine alternative Methode zur Bestimmung der MHK und ist eine Kombination der Kirby-Bauer Scheibendiffusionstest und Verdünnungsmethoden. Ähnlich wie beim Kirby-Bauer-Assay wird ein konfluenter Rasen eines Bakterienisolats auf die Oberfläche einer Agarplatte geimpft. Anstatt kreisförmige Scheiben zu verwenden, die mit einer Wirkstoffkonzentration imprägniert sind, werden jedoch im Handel erhältliche Kunststoffstreifen, die einen Gradienten eines antibakteriellen Mittels enthalten, auf die Oberfläche der beimpften Agarplatte gelegt (Abbildung 3). Während das bakterielle Inokulum wächst, diffundiert das Antibiotikum von den Plastikstreifen in den Agar und interagiert mit den Bakterienzellen. Da die Diffusionsgeschwindigkeit des Arzneimittels in direktem Zusammenhang mit der Konzentration steht, ist ein elliptischer Hemmzone wird mit dem Etest-Wirkstoffgradienten beobachtet, anstatt einer kreisförmigen Hemmzone, die mit dem Kirby-Bauer-Assay beobachtet wird. Um die Ergebnisse zu interpretieren, zeigt der Schnittpunkt der elliptischen Zone mit dem Gradienten auf dem arzneimittelhaltigen Streifen die MHK an. Da mehrere Streifen mit unterschiedlichen antimikrobiellen Mitteln auf derselben Platte platziert werden können, kann die MHK mehrerer antimikrobieller Mittel gleichzeitig bestimmt und direkt verglichen werden. Im Gegensatz zu den Verdünnungsverfahren Makrobouillon und Mikrobouillon kann der MBC jedoch nicht mit dem Etest bestimmt werden.

Abbildung 3. Der Etest kann verwendet werden, um die MHK eines Antibiotikums zu bestimmen. In diesem E-Test wird gezeigt, dass Vancomycin eine MHK von 1,5 µg/ml gegen Staphylococcus aureus.

Denk darüber nach

Klinischer Fokus: Nakry, Auflösung

Nakrys HWI wurde wahrscheinlich durch die Katheterisierungen verursacht, die sie in Vietnam hatte. Die meisten Bakterien, die Harnwegsinfektionen verursachen, sind Mitglieder der normalen Darmmikrobiota, aber sie können Infektionen verursachen, wenn sie in die Harnwege eingeführt werden, wie es beim Einführen des Katheters aufgetreten sein könnte. Alternativ, wenn der Katheter selbst nicht steril war, könnten Bakterien auf seiner Oberfläche in Nakrys Körper eingebracht worden sein. Die antimikrobielle Therapie, die Nakry in Kambodscha erhielt, könnte auch ein erschwerender Faktor gewesen sein, da sie möglicherweise auf antimikrobiell resistente Stämme selektiert wurde, die bereits in ihrem Körper vorhanden sind. Diese Bakterien hätten bereits Gene für antimikrobielle Resistenz enthalten, die entweder durch spontane Mutation oder durch horizontalen Gentransfer erworben wurden, und hätten daher den besten evolutionären Vorteil für Anpassung und Wachstum in Gegenwart der antimikrobiellen Therapie. Als Ergebnis könnte einer dieser resistenten Stämme nachträglich in ihre Harnwege eingeführt worden sein.

Labortests bei der CDC bestätigten, dass der Stamm von Klebsiella pneumoniae aus Nakrys Urinprobe war positiv für das Vorhandensein von NDM, einem sehr aktiven Carbapenemase das beginnt sich als neues Problem der Antibiotikaresistenz herauszukristallisieren. Obwohl NDM-positive Stämme gegen eine Vielzahl von Antibiotika resistent sind, haben sie gezeigt, dass sie anfällig für Tigecyclin (strukturell verwandt mit Tetracyclin) und der Polymyxine B und E (colistine).

Um eine Ausbreitung ihrer Infektion zu verhindern, wurde Nakry in einem separaten Raum von den anderen Patienten isoliert. Alle Krankenhausmitarbeiter, die mit ihr interagieren, wurden angewiesen, strenge Protokolle zu befolgen, um eine Kontamination von Oberflächen und Geräten zu verhindern. Dazu gehören eine besonders strenge Händehygiene und eine sorgfältige Desinfektion aller Gegenstände, die mit ihr in Berührung kommen.

Nakrys Infektion reagierte schließlich auf Tigecyclin und heilte schließlich ab. Sie wurde einige Wochen nach der Aufnahme entlassen und eine Stuhlprobe zeigte, dass ihr Stuhl frei von NDM war K. pneumoniae, was bedeutete, dass sie das hochresistente Bakterium nicht mehr beherbergte.

Schlüsselkonzepte und Zusammenfassung

  • Die Kirby-Bauer-Scheibendiffusion Test hilft, die Anfälligkeit eines Mikroorganismus gegenüber verschiedenen antimikrobiellen Medikamenten zu bestimmen. Allerdings ist die Hemmzonen Die gemessenen Werte müssen mit bekannten Standards korreliert werden, um Anfälligkeit und Resistenz zu bestimmen, und liefern keine Informationen über bakterizide versus bakteriostatische Aktivität oder ermöglichen einen direkten Vergleich der Wirkstoffstärken.
  • Antibiogramme sind nützlich, um lokale Trends der Antibiotikaresistenz/-empfindlichkeit zu überwachen und eine angemessene Auswahl einer empirischen antibakteriellen Therapie zu lenken.
  • Zur Bestimmung der stehen mehrere Labormethoden zur Verfügung minimale Hemmkonzentration (MHK) eines antimikrobiellen Medikaments gegen eine bestimmte Mikrobe. Die minimale bakterizide Konzentration (MBC) können ebenfalls bestimmt werden, typischerweise als Folgeexperiment zur MHK-Bestimmung mit der Röhrchenverdünnungsmethode.

Mehrfachauswahl

Beim Kirby-Bauer-Scheibendiffusionstest wird der _______ der Hemmzone gemessen und zur Interpretation herangezogen.

Welche der folgenden Techniken kann nicht verwendet werden, um die minimale Hemmkonzentration eines antimikrobiellen Arzneimittels gegen eine bestimmte Mikrobe zu bestimmen?

  1. Etest
  2. Mikrobouillon-Verdünnungstest
  3. Kirby-Bauer Scheibendiffusionstest
  4. Makrobouillon-Verdünnungstest

Der Nutzen eines Antibiogramms besteht darin, dass es antimikrobielle Empfindlichkeitstrends zeigt

  1. über ein großes geografisches Gebiet.
  2. für einen einzelnen Patienten.
  3. in Forschungslaborstämmen.
  4. in einer lokalisierten Bevölkerung.

Fülle die Lücke aus

Die Methode, mit der die MHK mehrerer antimikrobieller Medikamente gegen einen mikrobiellen Stamm mit einer einzigen Agarplatte bestimmt werden kann, wird als ________ bezeichnet.

Wahr falsch

Wenn Medikament A beim Kirby-Bauer-Scheibendiffusionstest eine größere Hemmzone erzeugt als Medikament B, sollte immer Medikament A verschrieben werden.


Einführung

Verschiedene Arten neu entwickelter Nanomaterialien befinden sich in vielversprechender Entwicklung für verschiedene biomedizinische Anwendungen, einschließlich diagnostischer und therapeutischer Werkzeuge zur Behandlung vieler schwerwiegender Pathologien wie Krebs [1] oder neurodegenerativer Erkrankungen [2]. Die vielseitigen Eigenschaften von Nanopartikeln (NPs) können dazu beitragen, viele Probleme im Zusammenhang mit der erfolgreichen Abgabe von Medikamenten an die Läsionsstelle zu überwinden. NPs haben ein hohes Verhältnis von Oberfläche zu Volumen, das die Abgabe einer großen Menge an transportiertem Wirkstoff ermöglicht [3]. Die geringe Größe der NPs verlängert ihre Zirkulation im Blut [4, 5] und unterstützt ihre Akkumulation an der Tumorstelle [6]. Bei toxischen NPs kann jedoch eine verlängerte NP-Zirkulation die Endothelzellen der Blutgefäße stärker beeinträchtigen [7, 8]. Der Vorteil von NPs ist ihr nahezu unendliches Spektrum an Modifikationen, die sie in die Lage versetzen, das Ziel der Wahl anzuvisieren [9].Häufig verwendete Veränderungen in NPs sind Funktionalisierung durch Poly(ethylenglycol), Carboxylierung, Konjugation mit Lipiden, Peptiden, Proteinen, Enzymen, DNA oder RNA usw. [9–11]. Diese Modifikationen führen zur Verfügbarkeit einer Vielzahl unterschiedlicher NP, die auf ihre möglichen Auswirkungen auf die menschliche Gesundheit untersucht werden müssen. Screening der in vitro Toxizität der Kandidaten-NPs ist der erste wesentliche Schritt in präklinischen Bewertungen der Sicherheit dieser Nanomaterialien [12]. Die Standardmethode für grundlegende Untersuchungen der Zellviabilität basiert auf einem kolorimetrischen Verfahren, das vom Tetrazoliumsalz MTT (3-(4,5-Dimethyl-2-thiazolyl)-2,5-diphenyl-2H-tetrazoliumbromid) abhängig ist. Das MTT wird in lebensfähigen Zellen zu unlöslichem Formazan reduziert, das vor der Extinktionsmessung gelöst werden muss [13]. Einige NPs, wie Carbon Nanotubes (CNTs), können die Struktur von Formazankristallen stabilisieren und so zu deren Unlöslichkeit in Lösungsmitteln führen [14]. Aus diesem Grund ist der MTT-Assay zum Testen bestimmter NPs und zur Verwendung in einem Hochdurchsatz-Screening-Format ungeeignet. Die Caspase- und Annexin-V-Assays werden häufig verwendet, um die Apoptose zu beurteilen. Diese Assays erfordern jedoch eine zusätzliche Handhabung der Zellen (d. h. Ablösen, Waschen und manchmal Übertragen), was zu Zellschäden führen kann. Andere Apoptose-Assays, wie der Comet-Assay und das DNA-Laddering, basieren auf der Auswertung von DNA-Schäden, die durch Gelelektrophorese nachgewiesen wurden [15]. Der Comet-Assay wurde entwickelt, um die NP-Toxizität in einem Hochdurchsatz-Screening-Format zu testen [16], aber als eigenständige Methode liefert dieser Assay keine Informationen über den nekrotischen Zelltod. Nekrose kann mit neutralroten oder Trypanblau-Farbstoffen untersucht werden, die in lebensfähige Zellen eingebaut oder ausgeschlossen werden. Im Gegensatz zu Neutralrot, das in lebensfähigen Zellen an die Membranen von Lysosomen bindet [17], wird Trypanblau nur in den nicht lebensfähigen Gegenstücken angereichert [18]. Trotz ihrer Nützlichkeit für den Laboralltag erfordert die Trypanblau-Methode in der Regel die Ernte der Zellen durch Trypsin und das Neutralrot muss durch angesäuerte Ethanollösung aus den lebensfähigen Zellen extrahiert werden [17, 18]. Diese Komplikationen machen sie für Screenings mit hohem Durchsatz oder multiplen Assays unpraktisch.

Um ein effizienteres Screening der NP-Endothelzelltoxizität zu ermöglichen, haben wir drei unabhängige Tests zu einem Zelltod-Screening-Assay kombiniert, der in Endothelzellkulturen ohne Ernte der Zellen durchgeführt wird. Erstens basiert der Viabilitätstest auf einer neuen Generation des Tetrazoliumsalzes WST-8 (2-(2-Methoxy-4-nitrophenyl)-3-(4-nitrophenyl)-5-(2,4-disulfophenyl)-2H- Tetrazolium, Mononatriumsalz), das sehr gut wasserlöslich und damit besser für den Einsatz in Zellkulturen geeignet ist [19]. Darüber hinaus verhindert die negative Nettoladung, dass WST-8 in die Zellen eindringt, und seine Reduktion erfolgt durch Elektronentransport durch die Plasmamembran lebensfähiger Zellen [20]. Zweitens wird die Zellmembranintegrität und damit die Zellnekrose (einschließlich Nekroptose und sekundärer Nekrose, die aus dem Endstadium der Apoptose entstehen [21]) durch einen Laktatdehydrogenase (LDH)-Assay basierend auf der kolorimetrischen Bewertung des LDH-Enzyms, das von geschädigten Zellen in die Zellen freigesetzt wird, bewertet Medien [22]. Drittens wird die Apoptose unter Verwendung des DNA-Färbefarbstoffs Hoechst 33342 bestimmt. Der Anteil der apoptotischen Körper wird aus den Fluoreszenzbildern fixierter Zellen mit einem speziell entwickelten automatischen Makro in der ImageJ-Software gezählt. Darüber hinaus validiert und bestätigt die Verwendung der Hoechst 33342-Färbung auch die aus dem WST-8-Assay gewonnenen Informationen über das Ausmaß an lebenden Zellen und verringert so die Wahrscheinlichkeit falscher Daten. Alle Assays werden nacheinander an den Zellen im selben Well durchgeführt, was Aufschluss über die Lebensfähigkeit, Nekrose und Apoptose derselben Zellpopulation gibt und somit zur Kohärenz, Zuverlässigkeit und Relevanz der Ergebnisse beiträgt.


Screening illegaler Drogen, Kurzintervention und Behandlungsplatzierung Screening-Methoden: Biologische Tests

Neben Beobachtungen und Selbstberichten werden häufig biologische Tests verwendet, um auf illegalen Drogenkonsum zu untersuchen. Diese Tests umfassen Urin-, Haar-, Blut-, Schweiß- und orale (Speichel-)Tests.

Urintest ist derzeit die gebräuchlichste Form des Drogentests, auch weil Urin leicht zu sammeln ist und die meisten Drogen im Urin nachgewiesen werden können (eine Ausnahme bildet Methaqualon). Urintests sind gut für den kurzfristigen Nachweis, insbesondere von schnell ausgeschiedenen Drogen wie Kokain, Heroin und Amphetaminen, da sie einen Überblick über die letzten 48 bis 72 Stunden geben können. Urintests sind weniger effektiv, um langfristige Muster des Drogenkonsums zu erkennen.[1-3]

Haartest ist weniger aufdringlich und wurde für die Einstellungsprüfung verwendet. Es wird auch für Ermittlungen verwendet, wenn andere Tests nicht verfügbar sind, beispielsweise bei Kriminalfällen oder Todesfällen. Haare können auf die meisten Medikamente getestet werden und haben den Vorteil, dass sie über einen längeren Zeitraum Informationen liefern. Die Lebensdauer eines menschlichen Haares beträgt je nach Körperlage etwa vier Monate bis vier Jahre. Drogen dringen in das Haar ein, während es wächst, und stellen daher eine Aufzeichnung des Drogenkonsums während der gesamten Wachstumsphase dar. Haartests sind eine bessere Alternative, um langfristigen Drogenkonsum zu erkennen, und es ist ein Verfahren, das schwieriger zu vermeiden und zu manipulieren ist als Urintests. Viele Medikamente bleiben nach der Verabreichung des Medikaments monatelang ziemlich stabil im Haar.[1] Da das Haar in der Regel 1 cm pro Monat wächst, kann eine 3 cm lange Haarprobe für etwa 90 Tage eine Vorgeschichte des Drogenkonsums liefern. Zusätzlich zur Erkennung der Langzeitnutzung ist das Sammeln von Haarproben weniger invasiv und einfacher zu lagern als Urin.[1]

Einige der Nachteile der Haaranalyse hindern sie daran, andere Methoden der Drogentestung zu ersetzen. Ein solcher Nachteil besteht darin, dass der kurzfristige Drogenkonsum nicht erkannt wird, da Medikamente nicht sofort in das Haar eingearbeitet werden.[1] Medikamente können erst nach 3 bis 5 Tagen nach Einnahme nachgewiesen werden, da das Haar in dieser Zeit aus der Epidermis austreten muss.[2] Ein weiterer Nachteil der Haaranalyse besteht darin, dass die Beziehung zwischen der Medikamentendosis und den im Haar gefundenen Konzentrationen nicht eindeutig geklärt ist.[1] Darüber hinaus schneiden einige Benutzer ihre Haare zu kurz oder haben keine Kopfbehaarung, sodass eine Haaranalyse nicht ausreichend ist. Haare können jedoch auch aus anderen Körperteilen wie dem Schambein oder den Achselhöhlen (Achseln) entnommen werden, um eine Haarprobe für Drogentests bereitzustellen.[4] Ein weiteres Problem ist, dass Shampoorückstände, Haarbehandlungen, Rauch, Luftverschmutzung und andere Umwelteinflüsse als Verunreinigungen wirken und die Genauigkeit der Haartests beeinträchtigen können. Außerdem haben dunkelhaarige Menschen eine höhere Melaninkonzentration, die Medikamente in höherem Maße einbindet und zurückhält. Das Ergebnis ist, dass eine dunkelhaarige Person wesentlich häufiger positiv getestet wird als eine hellhaarige Person, die die gleiche Menge des Medikaments verwendet hat.[4]

Blutuntersuchungen wird am häufigsten zu klinischen, diagnostischen und Medikamentenüberdosierungszwecken durchgeführt und ist Routine in der Notaufnahme von Krankenhäusern. Bluttests werden für die Untersuchung nach einem Unfall bevorzugt, da sie sogar bei einer stark alkoholisierten, verletzten oder toten Person durchgeführt werden können. Die meisten Medikamente können im Blut getestet werden, obwohl THC (Marihuana) besonders schwer zu messen ist.[3]

Schweißtest wird manchmal vom Strafjustizsystem verwendet, um auf Bewährung entlassene Personen und Gefangene zu überwachen. Untersuchungen haben ergeben, dass Rückstände einer Reihe von Drogen im menschlichen Schweiß nachgewiesen werden können, darunter Alkohol, Amphetamin, Kokain, Heroin, Morphin, Methadon, Methamphetamin und Phencyclidin (PCP). Der Prozess beinhaltet das Tragen eines Schweißpflasters, das einem gewöhnlichen Pflaster ähneln kann, um den Schweiß der Teilnehmer zu sammeln. Das Pflaster, das sich ansammelnden Schweiß auf einem absorbierenden Zellstoffkissen sammelt, ist typischerweise für mehrere Tage ausgelegt, obwohl Pflaster für kürzere Zeiträume entwickelt wurden. Um Manipulationen zu verhindern, um den Drogenkonsum zu verbergen, wurde das Pflaster speziell so entwickelt, dass es nach dem Entfernen nicht wieder auf der Haut befestigt werden kann. Die im Pflaster angesammelten Schweißrückstände werden durch Gaschromatographie-Massenspektrometrie untersucht, einem präzisen analytischen Verfahren zur Trennung und Identifizierung chemischer Verbindungen. Schweißtests haben den Vorteil, dass sie weniger invasiv sind als Urin- oder Bluttests.[3,5,6]

Mundflüssigkeit (Speichel) testen wird durchgeführt, indem ein Tupfer innerhalb der Wange gerieben, in einen verschlossenen Behälter gelegt und dann zum Testen vorgelegt wird. Speichel zeigt Amphetamine, Barbiturate, Kokain, Marihuana, Opiate und PCP. Ein oraler Flüssigkeitstest ist beim Nachweis einer kürzlichen Einnahme effizienter als Urin, ist jedoch nach drei Tagen weniger effektiv. Zu den Vorteilen gehören die Leichtigkeit des Sammelns und die Schwierigkeit der Verfälschung oder Ersetzung. Diese Form des Testens scheint immer beliebter zu werden.[3,7]


Schau das Video: inflammatio - TNF-Hemmtest - Prüfung der individuellen Wirksamkeit antientzündlicher Therapien (Dezember 2022).