Künstlicher Darmausgang - Optionen?

Es gibt eine Selbsthilfegruppe für Menschen mit künstlichem Darmausgang, die Dir wohlmöglich helfen könnte. www.ilco.de
Ohne Relevanz, aber ein Grund von vielen, warum ich solche Selbsthilfegruppen ablehne: Ich fände es auch entwürdigend, mittels Beitritt dort zu einem "X-Stadt-Känguru(!!!)" zu werden. Ich finde das, im wahrsten Sinne des Wortes, ent-mensch-lichend. Und gerade um die Menschenwürde geht es mir. Sorry für das off topic.
 
Deine Gedanken machen mich sehr betroffen. Du bist - soweit ich das aus Deinen Beiträgen beurteilen kann - nicht unheilbar krank. Es gäbe Hilfe für Dich. Aber Du scheinst im Augenblick nicht imstande zu sein, sie zu erkennen und anzunehmen. Ich schließe mich daher dem Appell an, Dir unbedingt therapeutische Unterstützung zu suchen.

Du hast Familie. Wissen die, wie es psychisch um Dich steht? Hast Du mit ihnen darüber gesprochen, dass Du über assistierten Suizid nachdenkst?
 
Ja, meine Familie weiß Bescheid. Meine engsten Freunde ebenfalls. - Mir wird seid über einem Jahr gesagt, dass ich kurz vor der Genesung stehe. Meine Schmerzen wurden zur "Psyche" erklärt und die starke Vereiterung von der ich sprach zu einer massiven Übertreibung. Mir wurde nicht geglaubt, dass sie schubweise auftrat.

Mir wurde garantiert (!) dass ich garantiert mit dieser Sache keinen künstlichen Darmausgang brauche. Ich war misstrauisch, als ich meinen Befund googelte. Zu Recht. Das Hilfe für mich möglich ist, wurde vor und nach jeder OP gesagt - aber die Aussagen haben sich nie bewahrheitet

Jetzt wird wieder relativiert. Er wäre doch rückverlegbar. Ich habe gelernt, dass Patienten oft die Wahrheit verschwiegen wird und nachgelesen. "Die Möglichkeit einer Rückverlegung ist grundsätzlich möglich, in Ihrem speziellen Fall aber unwahrscheinlich. Es ist anzunehmen, dass man Sie mit dieser Prognose nicht schockieren wollte, sondern Sie darauf im weiteren Verlauf schonend vorbereiten würde."

Danke auch dir, Claudia, aber therapeutische Hilfe brauche ich wirklich nicht.
 
Stammt das Zitat in Anführungszeichen von einer fachkundigen Person?
 
Es stammt, sinngemäß, von einer KI. Diese lag, die ganze Zeit über, deutlicher besser mit ihrer Einschätzung als alle Ärzte! Was fast noch untertrieben ist.
 
Entschuldige bitte, aber ich habe Dich bisher für eine vernünftige Person gehalten. Dass Du einem Chatbot eine bessere Diagnosefähigkeit zutraust als Menschen mit Abitur, sechs Jahren Studium, weiteren fünf bis sechs Jahren Fachweiterbildung und wahrscheinlich noch einigem mehr an Berufserfahrung, das erschreckt mich jetzt sehr. Und zeigt mir, wie schlimm es im Augenblick um Deine psychische Verfassung bestellt sein muss. Die Frau, die im Corona-Thread wiederholt wissenschaftliche Quellen und Belege forderte, hätte niemals eine KI als solche akzeptiert. Zu Recht: KI-Modelle im Faktencheck: So häufig liefern ChatGPT & Co. Falschaussagen | Mittelstand-Digital Zentrum Berlin.

Du benötigst Hilfe und wirst sie nicht von künstlicher Intellligenz erhalten können. ChatGPT und alle anderen offen zugänglichen KIs sind nicht für medizinische Diagnosen ausgelegt.
 
Laurina,
ich bin sehr erschrocken, wie sehr du in deinem Gedankenwirrwarr verstrickt bist und wie wenig empfänglich für realistische Hilfsangebote du bist! Du brauchst dringend psychische Hilfe und keine KI, die dir deine Gedanken und Ängste bestärkt. Auch wenn du vehement abstreitest von therapeutischer Hilfe zu profitieren.
Ich finde es mittlerweile auch bedenklich, wie du über assistierten Suizid nachdenkst und wie lapidar du das bei deiner Erkrankung in Erwägung ziehst und das hier im öffentlichen Forum, wo vielleicht viele Menschen das lesen, die nicht Bescheid wissen und die denken könnten es sei aussichtslos.

Das ist es nicht und es gibt noch Behandlungsoptionen.
Ich bin wegen einer persönlichen chron Erkrankung auch seit Jahren gebeutelt, mit Schmerzen, Juckreiz, Entzündungen und Schlafstörungen. Es zermürbt einen, das verstehe ich gut und Hoffnung zu haben ist auch schwer.
Dass du vieles nicht willst, verstehe ich auch. Ein Bekannter von mir musste kürzlich auch ein Colostoma bekommen bei Darmkrebs. Auch ohne Zusage zur Zurückverlegung. Das kostet Kraft, aber du investierst soviel in deine Recherche, investiere das in Hoffnung und deine Genesung.
Letztlich entscheidest du alleine über dein Schicksal, aber ich fände es gut, wenn du aufhörst hier über Suizid zu schwadronieren. Ich wünsch dir von Herzen alles Gute!
 
@Claudia , es ist Fakt, dass die Ärzte (6 an der Zahl) wieder und wieder mit ihren Prognosen falsch lagen. Und ebenso ist es Fakt, dass die KI, wieder und wieder richtig lag. Sie schreibt ja auch ausdrücklich, dass sie keine medizinische Diagnose ersetzen kann, sondern "nur" Erfahrungswerte aus vergleichbaren Fällen liefert. Ich weiß nicht, ob man mir mit Absicht nicht die Wahrheit sagte oder nicht. Ein Arzt fragte mich später auch: "Dass Sie nichts mit Kernen essen sollten wissen Sie?" Nein, hätte ich nicht gewusst, wenn die KI es mir nicht mitgeteilt hätte.

@ludmilla Ich "schwadroniere" nicht. Und ich ziehe es auch nicht "lapidar" in Betracht. Es ist mir sehr ernst. Welche Behandlungsoptionen es noch gibt habe ich gelesen. Extrem niederschmetternd. Erfahrungsberichte von Betroffenen habe ich ebenfalls gelesen. Ebenfalls niederschmetternd. Und psychische Hilfe brauche ich überhaupt nicht! Jemand der versucht, mir meine Situation jetzt schönzureden, ist mir keine Hilfe.
 
Ich bezweifle nicht Deine Enttäuschung darüber, dass sich Ärzte bei ihren Prognosen irrten und operative Eingriffe nicht den erhofften Erfolg brachten. Ich kann auch verstehen, dass dadurch Dein Vertrauen in die Mediziner gelitten hat. Aber eine KI um medizinischen Rat zu fragen ist unsinnig. Es zeigt mir, wie fix und fertig Du sein musst. Du scheinst augenblicklich nicht in der Lage zu sein, vernünftig zu denken. Und das macht mir Sorgen.

Sie [die KI] schreibt ja auch ausdrücklich, dass sie keine medizinische Diagnose ersetzen kann, sondern "nur" Erfahrungswerte aus vergleichbaren Fällen liefert.
Genau dies können Chat-GPT und vergleichbare KIs nicht, weil ihnen diese Daten niemals "gefüttert" wurden. Sie ziehen sich zufällige Aussagen aus dem Internet zusammen und fabulieren dazu. Da aber die Menschheit nachweislich mehr dazu neigt, negative Erlebnisse weiterzuerzählen, fußen die Aussagen Deiner KI aus unvollständigen, hauptsächlich negativen, einseitigen Quellen. Das Zeug, das Chat-GPT von sich gibt, ist in diesem Zusammenhang nichts wert!

(Es gibt bereits KI-Modelle, die zur Diagnosestellung genutzt werden sollen und dafür gezielt mit den notwendigen Daten versorgt werden. Aber viele davon sind noch im Aufbau. Und als Normalverbraucher kommst Du auch nicht an sie ran.)
 
Ich bezweifle nicht Deine Enttäuschung darüber, dass sich Ärzte bei ihren Prognosen irrten und operative Eingriffe nicht den erhofften Erfolg brachten. Ich kann auch verstehen, dass dadurch Dein Vertrauen in die Mediziner gelitten hat. Aber eine KI um medizinischen Rat zu fragen ist unsinnig. Es zeigt mir, wie fix und fertig Du sein musst. Du scheinst augenblicklich nicht in der Lage zu sein, vernünftig zu denken. Und das macht mir Sorgen.
Tatsächlich scheint mir das nicht so. Denn andererseits hat mir die KI oft mit Wissen weitergeholfen, welches Ärzte bei mir voraussetzten. Niemals wäre z.B. ich darauf gekommen, dass ich keine Kernfrüchte essen sollte. Ein anderes Mal stellte ich mich auf Rat der KI in der Notaufnahme vor. Obwohl zwei Stunden vorher ein Arzt befand, ich sei wohl etwas überängstlich und würde Symptome überinterpretieren. In der Notaufnahme schwankte man zwischen Antibiotika und schnellstmöglicher weiterer Operation.

Dass du dir meinetwegen Sorgen machst, habe ich wirklich nicht beabsichtigt.
 
Dass Du einem Chatbot eine bessere Diagnosefähigkeit zutraust als Menschen mit Abitur, sechs Jahren Studium, weiteren fünf bis sechs Jahren Fachweiterbildung und wahrscheinlich noch einigem mehr an Berufserfahrung, das erschreckt mich jetzt sehr.
Naja. Ich denke, daß die Diagnosefähigkeit der Mediziner sicherlich jeder KI überlegen ist.
Auf der anderen Seite habe ich aber den Eindruck, daß viele Ärzte entweder nicht ganz ehrlich sind oder aber sehr schlampig aufklären. Sowas wie das mit dem Kernobst kenne ich in ähnlicher Weise, und es ärgert mich sehr. Man muss sich dann nicht wundern, wenn die Leute nach jedem Strohhalm greifen und sich z. T. aus fragwürdigen Quellen informieren.
Du benötigst Hilfe und wirst sie nicht von künstlicher Intellligenz erhalten können. ChatGPT und alle anderen offen zugänglichen KIs sind nicht für medizinische Diagnosen ausgelegt.
Da stimme ich allerdings zu.
Und von KI, egal in welcher Form, halte ich generell nichts.