最新研究显示,越新的ai越容易胡说八道

GlossyFlyerr-avatar

GlossyFlyerr

这也能发论文啊,你瞎编一个东西,比如小说,ai能给你东瓶西凑一个东西出来。或者问一个根本实现不了的东西,也能搞得和真的一样,ai本身不知道对错,说是ai,其实还是ml
ドッゴー先輩-avatar

ドッゴー先輩

+ by [沉溺中结疤] (undefined)

这也能发论文啊,你瞎编一个东西,比如小说,ai能给你东瓶西凑一个东西出来。或者问一个根本实现不了的东西,也能搞得和真的一样,ai本身不知道对错,说是ai,其实还是ml

这里的ml是什么意思?
豪豪-avatar

豪豪

+ by [门有希修士] (undefined)

这里的ml是什么意思?

偷笑机器学习吧
marK-avatar

marK

用AI搜游戏攻略可知 全是扯淡。。
Zacky Wacky 🌌-avatar

Zacky Wacky 🌌

+ by [沉溺中结疤] (undefined)

这也能发论文啊,你瞎编一个东西,比如小说,ai能给你东瓶西凑一个东西出来。或者问一个根本实现不了的东西,也能搞得和真的一样,ai本身不知道对错,说是ai,其实还是ml

为啥不能?之前一直认为只要一直喂数据,大模型就会更聪明

现在看起来是发现能汲取知识的数据已经用完了,喂更多数据越喂反而越蠢
causes-avatar

causes

不明觉厉我试过用很多语言模型搜几个冷门游戏的作弊码。
结果惨不忍睹。
Stein-avatar

Stein

差不多就和之前预计的一样
学的越多越煞笔 尤其是会学出一些非常zz不zq的东西
这波ai热本质和以前差不多 没啥新东西
Shygeta-avatar

Shygeta

因为实现的从来就不是“给出正确的回答”,而是“给出像是正常的回答。”
机器学习的方向就是拟真性,基本没考虑正确性
boonchi-avatar

boonchi

原理很简单吧,假新闻看的越多,出现错误认知的可能性越大,信息不总是越多越好的,很多时候正确的信息是唯一的。
qloak-avatar

qloak

+ by [灭之眼] (undefined)

用AI搜游戏攻略可知 全是扯淡。。

是的,我前天做驭龙术魔符的成就,喧窟的魔符差一个,就去百度搜啁啾之巢在哪,ai告诉我在多恩岛喷
Bob Marley-avatar

Bob Marley

至少能用来流水线作业搞新闻洗脑,美国最爱。
たいたい卍-avatar

たいたい卍

知之为知之,不知为不知,是知也


老祖宗的智慧还是有道理的,现在的ai不是有那个经典比喻吗,拿着核武器的猩猩,空有知识没有智慧
TheWorldIsFlat-avatar

TheWorldIsFlat

+ by [嘚瑟一会儿] (undefined)

是的,我前天做驭龙术魔符的成就,喧窟的魔符差一个,就去百度搜啁啾之巢在哪,ai告诉我在多恩岛喷

就像游戏更新一个大版本 他不懂新版本 但他会瞎扯
擦汗
Traverty-avatar

Traverty

我用ai搜一个程序组件的报错码含义
听起来头头是道,但是实际上是纯纯的胡编乱造

其实这个逻辑也很合理
你肚子里没二两墨水又要充场面
闻到你的知识盲区,可不就得鬼扯一通避免露馅
BlueKrusader-avatar

BlueKrusader

每次看到帖子回复我都特别安心吻
RicarDio-avatar

RicarDio

+ by [往圣继绝学] (undefined)

为啥不能?之前一直认为只要一直喂数据,大模型就会更聪明

现在看起来是发现能汲取知识的数据已经用完了,喂更多数据越喂反而越蠢

哭笑不存在越喂越聪明,只存在在已有的数据里越喂越准确,但依然无法脱离已有的数据。
说白了现在的ai依然只是执行命令,并不是自己思考。
并且目前阶段的计算机底层逻辑也不可能诞生能够自己思考的ai哭笑
Sad-Seal-avatar

Sad-Seal

+ by [往圣继绝学] (undefined)

为啥不能?之前一直认为只要一直喂数据,大模型就会更聪明

现在看起来是发现能汲取知识的数据已经用完了,喂更多数据越喂反而越蠢

现在的数据容易被ai污染,你拿ai生成的东西再让ai学习,就跟近亲繁殖一样只会越来越烂
phred-avatar

phred

AI基本就是用语法从素材库中提取素材拼凑,还会互相污染,最后导致回答趋同性……整个大环境来说,AI应用投付得越多,AI就整体越蠢,因为被大量的未经验证的AI产品污染后,正确的经过人工筛选的正确答案占网络素材库的整体权重就会越小。

人类的思考是有构思-逻辑推理-现实印证-接受反馈-改进-再印证…这一系列循环演进的。其中现实验证-接受反馈的环节就是人类对某一个思考得出的答案是否正确,是否需要改进的判定。

AI缺少现实印证-接受反馈改进这一关键环节,根本无法判定推演是否正确,更无法达成思维的自我演进,只能靠数据库和算法中经过人工验证的部分进行推演,当你的用大数据训练而无法筛选数据库中的素材质量时,是无法得到准确的结果的。
El Don Mangusta-avatar

El Don Mangusta

有一说一王高飞养出来那个评论罗伯特还是挺乐的哭笑