Chemotherapie: KI-Modell reduziert toxische Dosen

Forscher des Massachusetts Institute of Technology (MIT) haben ein Modell Künstlicher Intelligenz (KI) entwickelt, das Patientendaten erfasst, um die Krebsbehandlung in ihrer Aggressivität zu mildern. [...]

Die Chemotherapie-Behandlung von Tumoren kann mittels KI-Unterstützung abgemildert werden.
Die Chemotherapie-Behandlung von Tumoren kann mittels KI-Unterstützung abgemildert werden. (c) Pixelio/Rike

Das von den MITForschern entwickelte System basiert auf Maschinellem Lernen und reduziert toxische Dosierungen von Chemotherapie und Bestrahlung. Diese Behandlungsmethoden werden bei Glioblastomen, der aggressivsten Form eines Hirntumors, eingesetzt.

Basis ist „Verstärkendes Lernen“

Das neue Verfahren strebt möglichst niedrige Potenzen und Häufigkeiten der Dosierungen an, die trotzdem in punkto Schrumpfung des Tumors wirkungsvoll sind. Bei simulierten Versuchen von 50 Patienten konnte das KIModell Behandlungszyklen designen, bei denen die Potenz von einem Viertel bis zur Hälfte aller Dosierungen reduziert werden konnte. Der Behandlungserfolg blieb davon unbeeinflusst. Das Modell der Forscher nutzt eine Technik, die sich „Verstärkendes Lernen“ nennt und zum Maschinellen Lernen gehört.

Dieses Verfahren umfasst KIAgenten, die Handlungen in einer unvorhersehbaren, komplexen Umgebung ausführen, die zu einem gewünschten Ergebnis führen. Immer, wenn eine Handlung verrichtet wurde, erhält der Agent entweder eine „Belohnung“ oder „Bestrafung“. Dies hängt davon ab, ob die Tätigkeit das gewünschte Resultat unterstützt oder nicht.

Numerische Optimierung angestrebt

Die Belohnungen und Bestrafungen können sich in numerischer Form als +1 und -1 vorgestellt werden. Der KI-Agent versucht, seine Handlungen numerisch zu optimieren, um das gewünschte Ergebnis zu erreichen. Die Wissenschaftler haben das Modell für die Behandlung von Glioblastomen verwendet. Hier wird eine Kombination der Medikamente Temozolomid, Procarbazin, Lomustin und Vincristin über Wochen und Monate verabreicht.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*