Geschrieben von | Ma Xuewei Vorwort Laut den im Jahr 2021 von der Weltgesundheitsorganisation (WHO) veröffentlichten Daten verursachten die zehn häufigsten Todesursachen weltweit insgesamt 39 Millionen Todesfälle, was 57 % der weltweiten Gesamtzahl der Todesfälle (68 Millionen) entspricht. Sie stehen hauptsächlich im Zusammenhang mit zwei Hauptkrankheitstypen, nämlich Herz-Kreislauf-Erkrankungen (wie ischämische Herzkrankheit, Schlaganfall usw.) und Atemwegserkrankungen (wie Tuberkulose, chronisch obstruktive Lungenerkrankung, Infektionen der unteren Atemwege usw.). Unter anderem enthalten Husten oder die Atmung aufgrund von Atemwegserkrankungen viele Informationen über unseren Gesundheitszustand. Beispielsweise verwenden Ärzte ein keuchendes Hustengeräusch zur Diagnose von Keuchhusten und eine agonale Atmung zur Erkennung akuter kardiovaskulärer Ereignisse. Können wir im Zeitalter der künstlichen Intelligenz (KI) diese Technologie nutzen, um aus diesen Tondaten Gesundheitsinformationen zu extrahieren und unseren körperlichen Zustand besser zu überwachen? Ein Forschungsteam von Google und der Tuberkulose-Abteilung des Zambia Center for Infectious Disease Research hat einen wichtigen Schritt in diese Richtung unternommen. Gemeinsam haben sie das bioakustische Basismodell HeAR (Health Acoustic Representations) auf den Markt gebracht, das ihnen dabei helfen soll, menschliche Stimmen zu überwachen und frühe Anzeichen von Krankheiten zu erkennen. Das zugehörige Forschungspapier mit dem Titel „HeAR – Health Acoustic Representations“ wurde auf der Preprint-Website arXiv veröffentlicht. Berichten zufolge trainierten sie HeAR anhand von 300 Millionen Audiodaten, die sorgfältig aus einem vielfältigen und anonymisierten Datensatz ausgewählt wurden, und verwendeten speziell etwa 100 Millionen Hustengeräusche, um dieses „Hustenmodell“ zu trainieren. HeAR kann Muster in gesundheitsrelevanten Geräuschen erkennen, übertrifft andere Modelle im Durchschnitt bei einer Vielzahl von Aufgaben und kann Mikrofone verallgemeinern. Mit HeAR trainierte Modelle erzielten auch mit weniger Trainingsdaten eine hohe Leistung, was im Bereich der medizinischen Forschung, wo Daten oft knapp sind, ein Schlüsselfaktor ist. HeAR steht Forschern jetzt zur Verfügung und trägt dazu bei, die Entwicklung maßgeschneiderter bioakustischer Modelle mit weniger Daten-, Einrichtungs- und Rechenaufwand zu beschleunigen. „ Lösungen wie HeAR machen die KI-gesteuerte akustische Analyse beim Screening und der Erkennung von Tuberkulose äußerst nützlich und bieten denjenigen, die es am dringendsten benötigen, ein potenziell wenig belastendes und leicht zugängliches Instrument“, sagte Zhi Zhen Qin, Experte für digitale Gesundheit bei StopTB Partnership. Das Forschungsteam hofft, diese Forschungsergebnisse künftig nutzen zu können, um die Entwicklung von Diagnoseinstrumenten und Überwachungslösungen in den Bereichen Tuberkulose, Brust-, Lungen- und anderen Erkrankungen voranzutreiben und so zur Verbesserung der Gesundheitsversorgung in der Bevölkerung weltweit beizutragen. Nun hat das indische Unternehmen für Atemwegsgesundheit Salcit Technologies ein Produkt namens Swaasa entwickelt, das mithilfe von KI Hustengeräusche analysiert und die Lungengesundheit beurteilt. Das Unternehmen untersucht, wie HeAR dazu beitragen kann, die Fähigkeiten seiner bioakustischen KI-Modelle zu erweitern. Husten kann Krankheiten aufdecken Das HeAR-System besteht aus drei Hauptteilen. Durch selbstüberwachtes Lernen nutzt das HeAR-System große Mengen unbeschrifteter Audiodaten, um allgemeine Audiodarstellungen zu erlernen, die auf eine Vielzahl akustischer Gesundheitsaufgaben übertragen werden können. Abbildung|HeAR-Systemübersicht Für die Datenerfassung verwendete das Forschungsteam einen akustischen Ereignisdetektor für den Gesundheitsbereich. Dies ist ein Convolutional Neural Network (CNN) mit Multi-Label-Klassifizierung zum Identifizieren des Vorhandenseins von 6 nicht-sprachlichen akustischen Gesundheitsereignissen in 2-sekündigen Audioclips: Husten, Babyhusten, Atmen, Räuspern, Lachen und Sprechen. Der Detektor wird mit den Datensätzen FSD50K und FluSense trainiert und in den Audioclips mit Bezeichnungen wie „Husten“, „Niesen“ und „Atmen“ versehen. Das Dokument verwendet zwei Datensätze. Einer davon besteht aus 2-sekündigen Audioclips, die aus 3 Milliarden öffentlichen, nicht urheberrechtlich geschützten YouTube-Videos extrahiert wurden. Insgesamt ergeben sich 313,3 Millionen Clips oder etwa 174.000 Stunden Audio. Diese Segmente wurden mit dem Healthy Acoustic Event Detector gescreent. Die andere wurde vom Zambia Communicable Disease Research Centre gesammelt und enthielt Husten-Audioaufnahmen und Röntgenaufnahmen der Brust von 599 Patienten mit Verdacht auf Tuberkulose. Das Forschungsteam verwendete einen maskierten Autoencoder, der anhand eines großen Datensatzes von 313 Millionen zwei Sekunden langen Audioclips trainiert wurde. Mit linearer Sondierung erreicht HeAR eine SOTA-Leistung unter allen gesunden Audio-Embedding-Modellen bei einem Benchmark von 33 gesunden akustischen Aufgaben in 6 Datensätzen. Abbildung | HeAR erreicht bei 33 Audio-Gesundheitsaufgaben die höchste Durchschnittsbewertung (MRR = 0,708) und übertrifft alle anderen Basismodelle. HeAR übertrifft andere Modelle bei FSD50K- und FluSense-Datensätzen und belegt insbesondere den zweiten Platz unter den mit FSD50K trainierten Modellen. Abbildung|Leistungsvergleich der Aufgabe zur Erkennung akustischer Gesundheitsereignisse in den Datensätzen FSD50K und FluSense. HeAR übertrifft das Basismodell bei 10/14 Hustenschlussfolgerungsaufgaben, darunter Demografie und Lebensstil. Bei den TB- und CXR-Aufgaben ist seine Leistung mit den besten Modellen vergleichbar. Abbildung|Leistungsvergleich von Husten-Inferenzaufgaben. HeAR übertrifft das Basismodell bei 4/5 Lungenfunktionstestaufgaben und der Geschlechtsklassifizierungsaufgabe im SpiroSmart-Datensatz. Abbildung |Leistungsvergleich von Lungenfunktionstestaufgaben. Die Leistung von HeAR im CIDRZ-Datensatz wird nicht durch unterschiedliche Aufzeichnungsgeräte beeinträchtigt und ist gegenüber verschiedenen Geräten robust. Darüber hinaus kann HeAR auch mit weniger Trainingsdaten eine gute Leistung erzielen, was es in der medizinischen Forschung, in der gekennzeichnete Daten knapp sind, vorteilhafter macht. Allerdings weist HeAR auch gewisse Einschränkungen auf. Beispielsweise können lineare Sonden das Leistungspotenzial des Modells nicht voll ausschöpfen, einige Datensätze sind klein und weisen Probleme mit der Klassenungleichgewichtung auf und Modelle wie HeAR sind groß und auf Geräten wie Mobiltelefonen nur schwer auszuführen. Das Forschungsteam sagte, dass sie in Zukunft eine Feinabstimmung des Modells oder das Hinzufügen weiterer Funktionen zur Leistungssteigerung in Betracht ziehen könnten. Darüber hinaus könnten sie mehr Daten sammeln und die Methoden zur Datenvorverarbeitung verbessern. Sie könnten auch in Erwägung ziehen, sich mit Komprimierungs- und Quantisierungstechniken des Modells zu befassen, um die Ausführung auf lokalen Geräten zu ermöglichen. KI-gestützte Krankheitsdiagnose hat großes Potenzial Von der Unterstützung von Ärzten bis hin zur eigenständigen Diagnose von Krankheiten wird KI im medizinischen Bereich zunehmend eingesetzt und hat großes Potenzial gezeigt. Im Juni dieses Jahres trainierte ein Forschungsteam des Imperial College London und der University of Cambridge das KI-Modell EMethylNET, um durch Beobachtung von DNA-Methylierungsmustern 13 verschiedene Krebsarten (darunter Brustkrebs, Leberkrebs, Lungenkrebs, Prostatakrebs usw.) von nicht-krebsartigem Gewebe zu unterscheiden, mit einer Genauigkeitsrate von bis zu 98,2 %. Im Juli soll uns ein von einem Forschungsteam der Boston University und seinen Mitarbeitern entwickeltes KI-Tool dabei helfen, zehn verschiedene Demenzarten (gleichzeitig) zu diagnostizieren und so die Genauigkeit der Neurologen um mehr als 26 % zu verbessern. Kürzlich wurde mithilfe künstlicher Intelligenz auch ein Durchbruch bei der Bekämpfung von Autismus erzielt, dem „unsichtbaren Killer“ bei Kindern. Ein von einem Forschungsteam am Karolinska Institutet entwickeltes KI-Modell zur multimodalen Datenanalyse kann nicht nur frühe Anzeichen von Autismus bei Kindern im Alter von etwa 12 Monaten erkennen, sondern weist auch eine Genauigkeitsrate von 80,5 % bei der Identifizierung von Kindern unter zwei Jahren auf. Noch wichtiger ist, dass für den gesamten Prozess nur relativ wenige Informationen erforderlich sind. Es ist absehbar, dass KI den Menschen in naher Zukunft dabei helfen wird, mehr Krankheiten zu diagnostizieren und dem medizinischen Bereich mehr Möglichkeiten eröffnen wird. |
>>: Können Krabben in der Wüste gezüchtet werden? Ja, sie kommen an Ihren Tisch!
Kürzlich kam eine schockierende Nachricht aus der...
Experte dieses Artikels: Yan Ya, PhD in Medizinis...
Contemporary Amperex Technology Co., Ltd. (CATL),...
Im November 2020 wurden im Dorf Longxiang im Krei...
Wie wir alle wissen, ist im chinesischen Internet...
Nachdem sich in der Farbfernsehbranche zwei große...
Ich glaube, jeder hat schon einmal Yoga praktizie...
Hochsprung ist eine sehr anspruchsvolle Prüfungsd...
Im April 2022 verzeichneten die Automobilprodukti...
In der heutigen Gesellschaft arbeitet jeder im Bü...
Ein schlanker und starker Körper ist etwas, wovon...
Ob Laufen oder Seilspringen, beides wirkt sich gu...
Das schlechte Lese- und Schreiberlebnis zeigt uns...
, , , , , , , Bei einem 2-Yuan-Los der Double Col...
Viele Freunde haben die Angewohnheit, Mobiltelefo...