новости

вице-президент microsoft вик сингх: чат-боты с искусственным интеллектом должны «научиться просить о помощи», а не «создавать иллюзии»

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news от 2 сентября. 1 сентября по местному времени, по сообщению agence france-presse, вице-президент microsoft вик сингх заявил в интервью: «честно говоря, возможности, которых (генеративному ии) сегодня действительно не хватает, модель не уверена (точен ли ее собственный ответ), она может заранее сказать: «эй, я не уверен, мне нужна помощь».

с прошлого года microsoft, google и их конкуренты быстро внедряют генеративные приложения искусственного интеллекта, такие как chatgpt и gemini, которые могут генерировать разнообразный контент по запросу и давать пользователям иллюзию «всезнания». несмотря на успехи в разработке генеративного ии, они все еще могут «галлюцинировать» или придумывать ответы.

источник изображения

вик сингх настаивает на том, что «действительно умные люди» работают над тем, как заставить чат-ботов «признавать и просить о помощи», когда они не знают правильного ответа.

между тем, марк бениофф, генеральный директор гиганта облачного программного обеспечения salesforce, также заявил на прошлой неделе, что, по его мнению, многие клиенты все больше разочаровываются из-за вводящей в заблуждение производительности microsoft copilot.

it house узнал, что в последние годы искусственный интеллект активно развивается, и такие приложения, как чат-боты, постепенно становятся популярными. люди могут получать информацию от этих чат-ботов (например, chatgpt) с помощью простых инструкций. однако эти чат-боты по-прежнему подвержены проблеме «галлюцинаций», которые дают неверные ответы, а иногда и опасную информацию. одной из причин «галлюцинаций» являются неточные данные обучения, недостаточная способность к обобщению и побочные эффекты в процессе сбора данных.