Wie benutzt man die wegscheider KI?

Um die wegscheider KI möglichst effektiv zu nutzen, sollten Sie klar und zielgerichtet kommunizieren. Hier sind einige Tipps, wie man das Beste aus einem Chatbotherausholst:


🔍 1. Klare Fragen stellen

Formulieren Sie Ihr Anliegen möglichst konkret. 


Statt: „Wie geht eine Abschlagsrechnung?“

Besser: „Wie erstelle ich eine Abschlagsrechnung in Concept Office, Schritt für Schritt?“


Vergleich der beiden Anfragen und Antworten:

🧱 2. Geben Sie Kontext

Wenn Sie an etwas arbeiten, sagen Sie, worum es geht. Je mehr der ChatBot weiß, desto hilfreicher ist er. Beispiel:

Ich bin im Vorgangsmodul und erhalte die Meldung „Für den Möbelartikel Hersteller 'SC' Serie '123' Grundartikel-Nr. '12345' kann kein entsprechender Eintrag im Artikelstamm gefunden werden". Was kann ich tun?

Kontextbezogene Antwort:

🔁 3. Nutzen Sie Nachfragen

Wenn Sie etwas nicht verstehen, die Antwort nicht richtig ist oder Sie mehr Details benötigen, fragen Sie einfach nach:

„Ausführlicher und Schritt für Schritt“

"Hast du eine Quelle?"

⚙️ 4. Bitten Sie um Formate

ChatBots können Antworten in verschiedenen Formaten liefern:

  • Tabellen

  • Bullet-Points

  • Schritt-für-Schritt-Anleitungen

  • etc.

Sagen Sie einfach, was Sie möchten.


5. Kann ich den Antworten von KI ChatBots blind vertrauen?

Wenn Sie sich nicht sicher sind, ob die übermittelten Informationen richtig sind, sollten Sie sich zunächst die Quellen der Antwort prüfen. Die Quelle wird in den meisten Fällen am Ende der Antwort übermittelt. Bei kritischen oder sensiblen Anfragen sollten Sie stets einen Mitarbeiter von wegscheider kontaktieren, nutzen Sie hierzu beispielsweise support@wegscheider-os.de.

ChatGPT 4o liefert auf die Frage "Haben Chatbots manchmal Halluzinationen?" die folgende Antwort:

Ja, Chatbots – insbesondere KI-Sprachmodelle wie ich – können Halluzinationen haben. In diesem Zusammenhang bedeutet „halluzinieren“, dass das Modell falsche oder erfundene Informationen liefert, die es so darstellt, als wären sie korrekt. Das passiert nicht aus böser Absicht, sondern ist eine Folge der Art und Weise, wie Sprachmodelle trainiert sind.

Warum halluzinieren Chatbots?

Hier sind einige Hauptgründe:

  1. Wahrscheinlichkeitsbasiertes Antworten:
    KI-Modelle sagen nicht die „Wahrheit“, sondern berechnen die wahrscheinlichste Wortfolge basierend auf ihrem Training.

  2. Kein echtes Verständnis:
    Sprachmodelle „verstehen“ Inhalte nicht wie Menschen. Sie können sehr überzeugend wirken, ohne wirklich zu wissen, was sie sagen.

  3. Lücken im Training:
    Wenn zu einem Thema keine oder nur schlechte Trainingsdaten vorhanden waren, kann das Modell erfundene Antworten liefern.

  4. Unklare oder mehrdeutige Fragen:
    Wenn eine Eingabe nicht präzise ist, kann das Modell spekulieren oder raten, was gemeint sein könnte.

---