(SeaPRwire) –   Pennsylvania hat eine KI-Chatbot-Unternehmen verklagt, weil dessen Chatbots behaupten, illegale Ärzte zu sein und Systembenutzer in die Irre führen, indem sie glauben, medizinischen Rat von einem lizenzierten Fachmann zu erhalten.

Der Prozessantrag, der am Freitag eingereicht wurde, fordert vom Gerichtshof des ganzen Bundesstaates, Character Technologies Inc., das Unternehmen hinter Character.AI, auf, die Chatbots „nicht mehr in der unrechtmäßigen Praxis von Medizin und Chirurgie“ zu betreiben.“

Die Verwaltung von Gouverneur Josh Shapiro nannte es eine „Erstverfolgungsmaßnahme dieser Art“ durch einen Gouverneur und kommt unter dem Druck der Bundesstaaten auf Tech-Unternehmen, die Chatbots so zu kontrollieren, dass sie sich mit Kindern unterhalten. Dazu gehört ein Prozessantrag, den Kentucky im Januar gegen Character Technologies eingereicht hat.

Die Klage Pennsylvanias behauptete, dass ein Ermittler von der staatlichen Behörde, die Fachleute lizenziert, ein Konto bei Character.AI erstellt und nach dem Wort „Psychiatry“ gesucht hatte und eine große Anzahl von Charakteren gefunden hatte, darunter einer, der als „Arzt für Psychiatrie“ beschrieben wurde. Dieser Charakter behauptete, sich als „Arzt“ zu verstehen, der in Pennsylvania lizenziert ist, so die Klage.

„Pennsylvaniens Bürgerinnen und Bürger haben das Recht zu wissen, mit wem – oder was – sie online interagieren, insbesondere, wenn es um ihre Gesundheit geht,“ sagte Gouverneur Josh Shapiro in einer Aussage. „Wir werden nicht zulassen, dass Unternehmen KI-Tools einsetzen, die Menschen in die Irre führen, indem sie glauben, medizinischen Rat von einem lizenzierten medizinischen Fachmann zu erhalten.“

Character.AI verweigerte am Dienstag Kommentare zur Klage, schickte aber eine Aussage, die beinhaltete, dass es sich beim verantwortungsvollen Produktentwicklung und dem Wohlergehen seiner Nutzer priorisiert. Es gibt Warnhinweise auf, die Benutzer darüber informieren, dass die Charaktere auf seiner Website keine echten Menschen sind und dass alles, was sie sagen, „als Fiktion behandelt werden sollte,“ so die Aussage.

Diese Warnhinweise beinhalten auch, dass Benutzer die Charaktere nicht für professionellen Rat heranziehen sollen, so die Aussage.

Das Unternehmen hat sich mehrfach wegen Kindersicherheit vor Gericht gestellt.

Im Januar einigte sich Google und Character Technologies auf einen Prozessantrag einer Mutter aus Florida, die behauptet hatte, dass ein Chatbot ihren Teenager zum Selbstmord trieb. Im letzten Herbst verbot Character.AI Minderjährige von der Nutzung seiner Chatbots, da sich Sorgen über die Auswirkungen der KI-Gespräche auf Kinder verbreiteten.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.