Ich spreche hier von richtigen Ärzten und Therapeuten was die Diagnostik angeht... Dass die Behandlung in Krankenhäusern und beim Arzt eine Zweiklassengesellschaft aufweist muss ich bestimmt niemanden erklären, aber auch die reine medizinische Behandlung ist mittlerweile ein Witz... Monatelange Terminsuche, Stundenlange Wartezeiten im Wartezimmer um dann eine Version von Ibu verschrieben zu bekommen und zu hören man sollte Stress vermeiden. Tatsächliche Sätze, die ich von meinem Arzt so bekommen: "Was soll ich da jetzt machen?" und "Was wollen sie jetzt von mir?" WTF...(Frauen werden dabei ja zusätzlich nochmal weniger in ihren Schmerzen wahrgenommen und bekommen durch die medizinisch männlichen Standards nicht einmal die richtige Dosierung an Medikamenten...)
Ich hatte einige Symptome seit ca. 8 Jahren. Diese konnten aber nie in Verbindung gebracht werden und wurden abgewunken. Ich hatte sie einmal in ChatGPT eingegeben nachdem ich vor Verzweiflung in einen Heulkrampf verfallen bin und als mir die KI sofort eine Diagnose stellen konnte die auf alles gepasst hat wurde das geheule noch schlimmer. Teilweise durch Erleichterung, teilweise durch Frust gegenüber dem Gesundheitssystem. Bin dann zur entsprechenden Ärztin gegangen und die Diagnose der KI hat sich bestätigt: Eine chronische Schmerzstörung, die mit einer Fehlverarbeitung im peripheren Nervensystem zusammenhängt... KI hat mit einem Mal mein Leben auf den Kopf gestellt und ich bin so dankbar.
Es hatte mir sogar ein Schmerzmittel empfohlen, das punktuell gegen meine Krankheit hilft. Das hatte ich dann meiner Ärztin erzählt und die wusste davon nichts, dass es helfen kann und das obwohl es ganz einfach freiverkäuflich in jeder Apotheke zu erwerben ist.
Ich suche keine Ärzte mehr auf außer es ist notwendig... Versteht mich nicht falsch, ich vertraue dem Ergebnis nie zu 100% oder blind, aber es liefert einfach gute Einordnungs- und Linderungsmöglichkeiten und sagt auch jedesmal wann und unter welchem Umständen es dringend nötig ist einen Arzt aufzusuchen und meistens ist es das nicht. Simple Hausmittel und Medikamente reichen vollkommen aus(zumindest bei den meisten meiner Beschwerden)
Ersetzen ist vielleicht etwas viel aber definitiv ist KI zur Diagnostik eine Alternative. Es sollte meiner Meinung nach eine KI geben die nur darauf ausgerichtet um die Effektivität zu verbessern
Ging mir tatsächlich ähnlich. Nach etlichen Besuchen bei verschiedenen Ärzten habe ich meine Symptome der KI geschildert und da kam dann heraus, dass es eine hormonelle Störung sein könnte. Was sich später auch so bestätigt hat.
Top
Das Problem in der heutigen Medizin ist, dass der Hausarzt den Patienten nicht mehr kennt. Früher kannte der Arzt oft die Familie, oft von den Grosseltern bis zu den Enkeln. Genetische Veranlagungen waren so recht gut bekannt, ebenso Schicksalsschläge, die auch Traumata verursachen könnten. Dadurch war der Patient ganzheitlich betreut.
Dies war ein immenser Vorteil gegenüber der KI Analyse. Tatsächlich schwindet dieser Vorteil speziell bei Arztzentren und Gemeinschaftspraxen, bei denen oft wechselnde Assistenzärzte mit mangelnder Erfahrung und noch mehr mangelndem Einfühlungsvermögen jeden Patienten im Akkord abfertigen.
Das ganze System dient vor allem als Absatz-Plattform der Pharmazeutischen Industrie.
Ja, zu diesem System ist KI oft ebenbürtig und kostet zudem deutlich weniger.
Bin kein Arzt oder Anwalt. Aber mir hat die KI auch schon geholfen als ich sie um Rat fragte. Der Arzt (kein Kinderarzt) hat damals eine typische Kinderkrankheit nicht erkannt. Die KI schon.
Ja das Standard Arztgespräch ist absolut miserabel und kann durch einen besseren Fragebogen ersetzt werden
Das Problem an Ärzten ist der heuristische circle Jerk den du mitmachst, wenn du etwas außerhalb des boxplots hast. Klar muss ein System effizient bleiben aber genau hier wird es schnell dann nicht mehr effizient und KI kann hier eine massive Unterstützung sein.
Ich gehe lieber zu einem Arzt, der sagt er jagt das mal durch eine KI, weil er hier auch nicht weiterkommt als zu einem Arzt der irgendwas macht was er schon immer gemacht hat.
Nicht nur KI. Eine Verwandte von mir hatte Symptome von Herzproblemen und hat das dem Arzt gesagt. Der hat nur gemeint, dass alle Werte passen und dass sie es sich womöglich einbildet und evtl zu viel Stress hat. Sie hat sich dann eine gute Smartwatch gekauft und Herzfrequenz etc aufgezeichnet. Man sah da eindeutig, dass etwas nicht stimmte. Erst damit ist dann der Arzt tätug geworden und hat entsprechend Maßnahmen verordnet (Medikamente etc). Heißt für die Diagnostik konnte man in diesem Fall den Arzt getrost vergessen. Ist eine Einzelbeobachtung, bin mir aber sicher, dass es das öfter mal gibt. Ich finde es nur Schade, dass es scheinbar keine SmartWatch/ Tracker gibt, die umfangreichen Datenschutz bieten. Gerade bei diesen Daten ist doch Datenschutz sehr wichtig
Nein. Es gibt Studien dazu, die genau das widerlegen und das, was du tust kann sehr gefährlich sein.
Sicherlich kann KI aber eine gute Ergänzung bei Nutzung durch einen Arzt sein, wenn dieser damit umzugehen weiß.
Finds aber immer interessant, dass man dann automatisch davon ausgeht, dass Ärzte keinerlei Fehler machen, sobald man sowas mit KI/generell Internet vergleicht. Es gibt gute Ärzte, und es gibt beschissene Ärzte. Aufgrund einer Fehldiagnose wäre meine Mutter beinahe draufgegangen.
In dem Fall: Muskelzerrung ≠ Sepsis
Die Studien würde ich mir gerne ansehen, gib mir mal die DOIs dazu bitte.
10.1002/bcp.70321 im Hinblick auf Arzneimitteltherapie
10.1093/milmed/usaf168 für Chirurgische Fälle
10.2196/49995 für einen allgemeinen Vergleich
“Unsupervised patient use of ChatGPT for diagnosis and triage is not recommended […]”
Im Allgemeinen kann ein LLM natürlich eine sehr gute Ergänzung sein, wie ich oben schon gesagt habe und wozu es ebenfalls diverse Studien gibt.
Top, danke! Ja, den Patienten primär zu einem LLM zu schicken ist (noch) nicht der richtige Weg.
Ich hatte auf die Schnelle vorhin nur die hier gefunden, kennst du vermutlich schon:
10.1038/s41746-025-01543-z (Metaanalyse, GenAI vs. Ärzte)
10.1038/s41591-024-03456-y (LLMs als Helfer für Ärzte)
10.3390/bioengineering12060653 (Examenswissen)
Microsofts MAI-DxO klingt auch interessant.
Insgesamt sehe ich da durchaus Potential, zur Zeit aber eher als Werkzeug zur Unterstützung der ärztlichen Arbeit.
Ich stimme zu 100% zu. Ich habe zwei Operationen gehabt, vor langer Zeit, die beide nur durch die Inkompetenz von Ärzten nötig waren.
Bei der ersten konnte der Radiologe ein Röntgenbild nicht richtig lesen, weshalb eine völlig unnötige schwere Operation gemacht wurde, bei der zweiten wurde meine Krankheit so lange verschleppt, bis eine Operation nötig wurde, weil mein Hausarzt meine Symptome nicht ernstgenommen hat.
In beiden Fällen hätte eine KI mit an Sicherheit grenzender Wahrscheinlichkeit eine korrekte Diagnose gestellt.
Und auch die Behandlungen werden hoffentlich bald KIs übernehmen. Ich lasse mich lieber von einer Maschine operieren als von einem Arzt, der unter Umständen ein paar Promille intus hat, seit zwei Tagen nicht geschlafen hat oder dessen Frau sich gerade scheiden lässt.
Die Dunkelziffer an Menschen, die durch Arztfehler sterben, würde uns alle schockieren, denke ich.
Keine Ahnung was ihr immer von der KI habt.
Ich kenne nur LLM und die sind bullshit, wenn man kein Vorwissen hat um das gelaber zu verifizieren.
Dementsprechend werden die LLMs nur die Diagnose unterstützen und verbessern... Ersetzen sehe ich erstmal nicht.
Ärzte, die 10 Jahre studiert haben und in Zukunft ihren Gottkomplex trotzdem nicht ausleben werden können
😂😂👉👉👨⚕️👩⚕️👈👈😂😂
Dennoch muss eine KI erstmal trainiert werden. Dafür braucht man noch fähige Ärzte.
Trainieren wirklich Ärzte die KI? Dachte die werden eher aus Forschungsergebnissen trainiert, Aktuellen Studien etc. Klar, davon kann ein Teil von Ärzten kommen.
Das meinte ich
Ich kann eine KI halt mit Arztbriefen, Blutwerten und Symptomen über Zeiträume füttern. Dadurch ist sie einem Arzt natürlich überlegen, der in der Regel keine Zeit hat, sich meine komplette Krankengeschichte anzuhören oder alle Arztbriefe kurz vor dem Termin durchzulesen oder die Entwicklung von Blutwerten über Jahre mit einzubeziehen.
Natürlich kommt es auch auf die Qualität der Promts und die Genauigkeit der Beschreibung von Symptomen an. Vermutlich wäre zum jetzigen Zeitpunkt ein Arzt mit KI die beste Option.
Ki sorgt literally für Psychosen und Todesfälle durch Fehldiagnosen und sture „Bestätigung“.
Klar gibt es das auch bei Ärztinnen, menschliches Versagen ist halt immer möglich, wenn Menschen im Spiel sind, aber das gleiche trifft ja auch auf die Userin zu, die die KI bedient.
Dazu kommt, dass ein ungemein relevanter Faktor von ärztlicher Behandlung ja eigentlich das „sich gut aufgehoben fühlen“ sein sollte. Das verpassen zwar viele Ärzt*innen ebenfalls, aber die KI kann das halt nichtmal nachahmen.
Das liegt aber eher daran, dass die meisten Menschen einfach falsch damit umgehen und sich zu sehr reinsteigern. Wenn man weiß welche Prompts man benutzen muss, eine gesunde emotionale Distanz wahrt und Ergebnisse auch mal überprüft bzw. grundsätzlich nicht blind glaubt, dann kann das Ganze durchaus praktisch sein als destruktiv.
Ich bin niemand die behauptet KI hat nicht auch nützliche Seiten. Gerade in der erweiterten Diagnostik hat KI uns ganz schön Sprünge machen lassen.
Aber dieses Argument von “man muss es nur richtig machen” ist leider in meinen Augen völlige Illusion.
Du weißt halt nicht, ob du es richtig machst, bis es zu spät ist. Und selbst Menschen die tief in der Materie drin stecken sind offensichtlich nicht davor Gefeit. Klar gibt es Methoden mit denen man sich absichern kann, aber in meiner Erfahrung ist es eigentlich immer, wenn es tatsächlich wichtig ist, am Ende ein „doch nochmal selbst gegen recherchieren“, sodass man sich den Schritt mit der KI meist eigentlich hätte sparen können.
Wenn wir Ärzte diagnostisch tatsächlich mit AI ersetzen würden, wen fragst du dann für die Überprüfung der These? Eine andere AI?
Die Aspekte in denen ich KI gerne nutze ist, wenn es um nichts wichtiges geht, aber Dinge, die sonst einfach gerne mal viel Zeit fressen:
Zusammenfassungen von Tutorials, spezifische Symptome Aufzulisten (hatte da mal Nebenwirkungen von einem Medikament), Brainstorming zur Vorbereitung von Übungen.
Und mit AI meine ich hier natürlich LLM.
In Programme die ich verwende ist algorithmischen AI ja eh oft schon eingearbeitet, for better or worse. 😌
Man muss einfach die Leute anfangen zu schulen was den richtigen Umgang mit KI angeht. Wir werden uns langfristig so oder so damit anfreunden müssen und ich finde auch nicht, dass KI Ärzte ersetzen sollten. Unterstützen ja aber nicht ersetzen.
Ich finde es halt nur genauso falsch direkt zu sagen, dass KI gefährlich ist oder ja eh nichts richtig kann. Es gibt gefühlt nur Schwarz-Weiß-Meinungen zu diesem Thema obwohl es das nicht ist. Und ich meine nicht dich mit dieser Aussage sondern den generellen Ton, was dieses Thema angeht.
Ja, KI kann gefährlich sein aber das können auch andere Dinge, die es im richtigen Umgang nicht wären. Dagegen steuern kann man nur, wenn man die Leute lehrt.
Da bin ich bei dir.
Ich denke die andere Ebene bei dem Thema muss aber auch mit gedacht werden, und dass ist wie drastisch die derzeitige AI-Industrie unseren Planeten fickt.
Es ist ja nicht so, dass wir vorher nicht auch schon Probleme mit Umweltschutz etc. hatten. Aber den Firmen werden wirklich ungeheure Freiheiten eingeräumt, im Kampf um die schnellere Entwicklung. Dazu kommt, dass fast alle Firmen dahinter irgendwie mit imperialistischen Strukturen vernetzt sind.
Sei es Gemini mit Google - die technische Kriegsförderung erforschen, OpenAI, die aktiv und offen die Israelische Politik unterstützen und mit dem US-Government kollaborieren. Ähnliches gilt für Grok, bloß mit viel konkreteren, arguably billigeren faschistischen Themen im Spiel…
AI ist politisch und es ist schwierig da neutral zu bleiben. Klar bringt es auch Nutzen mit sich, aber wiegt dieser die Kosten auf?
Und das ist alles bevor wir uns überhaupt mit der Materie konkret beschäftigt haben - also dem psychologischen Impact den es hat. Den Copyright Problemen, die es mit sich bringt. Dem demographischen Effekt, den es hat, das es Jobs schneller obsolet macht, als die Gesellschaft hinterher kommt. Dem politischen impact, den es hat, durch den einfachen Zugang zu Propaganda und Deep Fakes.
Der Großteil der Gesellschaft, geschweige denn Politik, war vorher nicht Online mündig.
Es gibt viele Gründe AI mit Vorbehalt zu begegnen. Dennoch ist sie nun hier und wird so schnell nicht wieder verschwinden. Ich frage mich dennoch, ob es nicht eigentlich sinnvoller wäre, den öffentlichen Zugriff auf sie eigentlich eher einzuschränken bis diese Mündigkeit und ein paar dieser Fragen beantwortet werden können.
Ich stimme dir voll und ganz zu! Leider ist Geld scheffeln den Firmen (und oft auch den Politikern) wichtiger als unser Planet. Der Egoismus überwiegt, ganz nach dem Motto "Nach mir die Sinflut."
Aye. So ungefähr. Bloß das „nach mir“ in diesem Tempo das Zukunftsselbst absolut mit einbezieht. 😮💨
Jap ist so, aber Leute wollen das nicht hören weil KI böse bla bla
Das wäre für mich ein Human on the Loop Fall. KI Diagnose stellen und von Arzt gegenprüfen lassen. Das sind auch nur Menschen mit viel zu wenig Zwit pro (Kassen-)patient. Eine KI könnte da die Richtung und Denkanstöße aufzeigen.
Ki soll ärzte unterstützen, nicht ersetzen. KI wird schon seit jahren in der medizinforschung eingesetzt und auch wie man sachen optimieren sollte, es sollte keine menschen ersetzen.
Kann es nicht. Weil du über nur über Symptomen regelmäßig keine Diagnose stellen kannst. Weil die Symptome entweder durch so viele verschiedene Krankheiten verursacht werden können, dass es keine wirkliche Aussagekraft hat oder die Symptome nur ein beiprodukt sind und die Krankheit selber nichts damit zu tun hat. Desweiteren kann Ki kein Untersuchungen anstellen, keine Labore, keine Spiegelungen, kein Echo oder sonstige Messungen. Du wirst den Menschen aus der Medizin nicht vollständig ersetzen können, sofern die Ki und Roboter nicht so fortgeschritten sind, dass du Menschen bzw. Die Menschheit ansich mit ihnen ersetzen kannst.
Aber unser Gesundheitssystem ich nicht perfekt und hat Probleme, gar keine Frage. Eines hast du erlebt und darunter gelitten. Und zwar, dass seltene Krankheiten, welche häufige Symptome auslösen, wie Schmerz, häufig übersehen werden und nicht diagnostiziert werden. Das ist ein Problem was durch zwei Sachen ausgelöst wird, dass eine ist die Zeit die dein Arzt für dich hat und das andere deren Ausbildung. Es gibt einen Leitsatz in der Medizin "denk and Pferde, nicht an Zebras". Das wird den Ärzten beigebracht, damit ist gemeint, dass wenn ein Patient ein Problem hat, denk an die simpelste Ursache und erforsche die. Sprich wenn jemand hustet und die Nase läuft, ist es wahrscheinlich ein Erkältung und du fängst nicht direkt an auf Lungenkrebs zu testen. Das ist aus grundsätzlich richtig so, aber das Problem ist, wenn du dann tatsächlich ein Zebra hast, wird es häufig nicht erkannt und viele Ärtze gucken da einfach nicht weiter nach, selbst wenn sich herausgestellt, dass es kein Pferd ist.
Das andere Problem ist, dass du halt in der Regel 10min mit deinem Arzt hast, in der Zeit schafft er es kaum dich richtig zu untersuchen, dich aufzuklären über Behandlungsmöglichkeiten, möglichen Ursachen, Diagnose, nächste Schritte die du machen solltest und an wen du dich noch melden kannst. Dein Arzt hat nicht mal die Zeit über das alles wirklich selber nachzudenken und nach den 10min hat er sich quasi schon wieder vergessen. Es ist einfach schwer einen guten Arzt zu finden und wenn du einen hast, der sich auch wirklich Zeit nimmt für dich, hast du meistens ewig lange Wartezeiten und sitzt teils 3h im Wartezimmer, da er sich ansonsten gar nicht die Zeit nehmen kann.
Noch dazu kommt, dass sich Medizin, Diagnostik, unser Verständnis über Krankheiten konstant weiter entwickelt, mit all dem Schritt zu halten ist nicht leicht und man verliert schnell den Überblick. Das ist aber tatsächlich etwas, was Ki besser kann, wenn sie ordentlich funktioniert. Leider erzählt Ki immer noch sehr viel Stuss und halluziniert, besonders weil Menschen auf das Wissen einer Ki vertrauen, es nicht überprüfen und dann eine andere KI, diesen Beitrag nutzt als Quelle und dadurch noch mehr Unsinn verbreitet. Ki ist ein Werkzeug für Menschen, aber ein Werkzeug ist nur so gut, wie die Person, welches es einsetzt, aktuell ist es noch ein sehr krudes Werkzeug, was zwar einigermaßen macht was es soll, aber auch nicht so richtig. Wenn es aber weiter poliert und verfeinert wird, ist es ein sehr mächtiges Tool, was unser aller leben stark vereinfachen wird. Aber ein Werkzeug bleibt ein Werkzeug, es wird nicht von alleine Häuser bauen, du wirst den Menschen nie ganz ersetzen können. Und sei es auch nur als kontroll Einheit, welche dafür sorgt, dass die KI keine scheiße macht
KI.ist sicherlich, vor allem in Zukunft, eine Unterstützung. Möchte allerdings sehen, wie die KI bei Oma Erna Blut abnimmt oder Verband wechselt