nachricht

microsoft-vizepräsident vik singh: ki-chatbots müssen „lernen, um hilfe zu bitten“, anstatt „illusionen zu erzeugen“

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news am 2. september. am 1. september ortszeit sagte microsoft-vizepräsident vik singh laut agence france-presse in einem interview: „ehrlich gesagt sind die fähigkeiten, die (generative ki) heute wirklich fehlen, das heißt, wenn.“ das modell ist sich nicht sicher (ob seine eigene antwort korrekt ist), es kann proaktiv sagen: „hey, ich bin mir nicht sicher, ich brauche hilfe.“

seit letztem jahr setzen microsoft, google und ihre konkurrenten rasch generative ki-anwendungen wie chatgpt und gemini ein, die bei bedarf eine vielzahl von inhalten generieren und benutzern die illusion von „allwissenheit“ vermitteln können. trotz der fortschritte in der entwicklung der generativen ki können sie immer noch „halluzinieren“ oder antworten erfinden.

bildquelle pexels

vik singh besteht darauf, dass „wirklich kluge leute“ daran arbeiten, chatbots dazu zu bringen, „zuzugeben und um hilfe zu bitten“, wenn sie nicht die richtige antwort wissen.

unterdessen sagte auch marc benioff, ceo des cloud-software-riesen salesforce, letzte woche, dass er sehe, dass viele kunden zunehmend frustriert über die irreführende leistung von microsoft copilot seien.

it house hat erfahren, dass künstliche intelligenz in den letzten jahren boomt und anwendungen wie chatbots nach und nach populär geworden sind. menschen können durch einfache anweisungen informationen von diesen chatbots (wie chatgpt) erhalten. allerdings sind diese chatbots immer noch anfällig für das problem der „halluzination“, die falsche antworten und manchmal gefährliche informationen liefert. eine der ursachen für „halluzinationen“ sind ungenaue trainingsdaten, unzureichende generalisierungsfähigkeit und nebenwirkungen während des datenerfassungsprozesses.