据报道,微软今天表示,由于人工智能版的必要性(Bing)公测结束后,搜索引擎出现了一系列问题,现在决定限制必要的对话,即每天最多可以问50个问题,每次最多可以问5个问题。
必应团队在一篇博客文章中说:“根据我们的数据,绝大多数人在五次回复中找到了他们想要的答案,只有大约1%的聊天对话有超过50条信息。”如果每次对话(每个问题)的回复超过5次,它必须提醒用户开始一个新的话题,以避免长时间来回聊天。
微软本周早些时候警告说,长时间的聊天对话有15个或更多的问题,可能会混淆必应模型,导致必应给出重复的答案,或者愤怒地做出不一定有帮助的回应,或者与我们设计的语气不一致。微软表示,只要问五个问题就结束对话,就不会感到困惑。
目前,ChatGPT版必须在169多个国家进行测试,数百万人报名参加了等待名单。有测试用户反应,ChatGPT版必须表现得更像一个人,但它喜怒无常,甚至精神混乱。
一些测试用户表示,新版本不仅应该经常犯错误,而且如果聊天太久或被质疑,它会突然对聊天对象发脾气、撒谎和人身攻击。
声明:易商讯尊重创作版权。本文信息搜集、整理自互联网,若有来源标记错误或侵犯您的合法权益,请联系我们。我们将及时纠正并删除相关讯息,非常感谢!