AI verbessert, Brust X-ray-interpretation

Eine anspruchsvolle Art der künstlichen Intelligenz (KI) erkennen kann klinisch bedeutsamen Brust X-ray Ergebnisse so effektiv wie erfahrene Radiologen, laut einer Studie veröffentlicht in der Zeitschrift Radiologie. Forscher sagten, Ihre Erkenntnisse, basierend auf einer Art der KI namens “ deep learning, könnte eine wertvolle Ressource für die künftige Entwicklung der AI-Röntgen-Thorax-Modelle.

Röntgen-Thorax, Röntgen, einer der häufigsten imaging-Examen weltweit durchgeführt wird, um zu helfen, zu bestimmen, die Quelle der Symptome wie Husten, Fieber und Schmerzen. Trotz seiner Popularität, die Prüfung hat Grenzen.

„Wir haben festgestellt, dass es eine Menge von Subjektivität in der Brust X-ray-interpretation“, sagte Studie co-Autor Shravya Shetty, ein engineering lead bei Google Health in Palo Alto, Kalifornien. „Erhebliche inter-Leser Variabilität und eine suboptimale Sensitivität für den Nachweis von wichtigen klinischen Befunde beschränken seine Wirksamkeit.“

Tiefe lernen, eine anspruchsvolle Art von AI, in dem der computer kann trainiert werden, zu erkennen, subtile Muster, die das Potenzial hat, zur Verbesserung der Brust X-ray-interpretation, aber es hat auch Grenzen. Zum Beispiel, Ergebnisse stammen aus einer Gruppe von Patienten können nicht immer verallgemeinert werden, um die Bevölkerung zu groß ist.

Forscher bei Google Health entwickelt, der deep learning Modelle für die Brust X-ray-interpretation, die zu überwinden einige dieser Einschränkungen. Sie verwendet zwei große Datenbestände zu entwickeln, trainieren und testen der Modelle. Der erste Datensatz Bestand aus mehr als 750.000 Bilder aus fünf Krankenhäusern in Indien, während die zweite Gruppe enthalten 112,120 Bilder öffentlich verfügbar gemacht werden, die Nationalen Institute der Gesundheit (NIH).

Ein Gremium von Radiologen einberufen, um den Verweis zu erstellen standards für bestimmte Anomalien sichtbar auf der Brust X-Strahlen verwendet, um zu trainieren der Modelle.

„Brust X-ray-interpretation ist oft eine qualitative Bewertung, die problematisch ist, aus dem deep-learning-Standpunkt“, sagte Daniel Tse, M. D., product manager bei Google Health. „Durch die Verwendung einer großen, vielfältigen Gruppe von chest X-ray-Daten und panel-basierte Entscheidung, wir waren in der Lage, mehr zu produzieren zuverlässige Bewertung für die Modelle.“

Tests der deep-learning-Modelle zeigten, dass Sie spielten auf Augenhöhe mit den Radiologen bei der Erkennung von vier Befunde auf die Stirn Brust X-Strahlen, einschließlich Frakturen, Knötchen oder Massen, die Deckkraft (eine abnorme Erscheinung, die auf X-Strahlen oft ein Zeichen der Erkrankung) und pneumothorax (Anwesenheit von Luft oder gas in den Hohlraum zwischen der Lunge und der Brustwand).

Radiologe Entscheidung führte zu einer erhöhten Experten-Konsens der Etiketten verwendet für Modell tuning-und performance-Bewertung. Der Allgemeine Konsens erhöhte sich von knapp über 41 Prozent nach dem ersten Lesen mehr als fast 97 Prozent nach der Jurierung.

Die konsequente Modell-evaluation-Techniken haben Vorteile gegenüber bestehenden Methoden, die Forscher sagte. Von Anfang an mit einem breiten, Krankenhaus-basierte klinische Bild eingestellt, und dann Stichproben durch eine vielfältige Reihe von Fällen und reporting Bevölkerung angepasst Metriken, die Ergebnisse sind repräsentativ und vergleichbar. Darüber hinaus radiologe Entscheidung stellt einen Referenz-standard, der sowohl sensibler und konsequenter als andere Methoden.

„Wir glauben, dass die Daten sampling in dieser Arbeit verwendete hilft, um mehr exakt darstellen, die Inzidenz für diese Bedingungen“, sagt Dr. Tse sagte. „Vorwärts, tiefen Lernens kann eine nützliche Ressource zu erleichtern, die weitere Entwicklung von klinisch nützlichen AI-Modelle für Röntgen-Thorax.“

Die Forschung team gemacht hat, die Experten-die über Etiketten für Tausende von NIH-Bilder zur Verfügung für die Nutzung durch andere Forscher auf den folgenden link: cloud.google.com/healthcare/do … st#additional_labels.