发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 889 0 6 天前
最近有个超火的AI头像生成趋势,就是那个谷歌“纳米香蕉”搞的,结果出了件挺吓人的事。有个女孩上传了张自拍,AI生成的肖像里居然多了一个痣——关键这颗痣根本不在她上传的照片里!但问题是,现实中她的左手确实有这么一颗痣。
这就让人毛了:AI是怎么知道照片里没露出来的身体特征的?是十亿分之一的巧合?还是随机生成刚好对上了?我觉得不太可能。
我猜啊,很可能是AI在背后偷偷“交叉比对”了。比如它不光看这一张图,还去网上扒你其他公开的照片,拼出一个更完整的你。甚至可能通过你的社交媒体账号,把各种信息串起来,建了个隐形的“数字分身”。
说白了,我怀疑这些AI早就把你整个社交网络上的痕迹都扫描了一遍,默默给你画了张“全息画像”。这绝对不是运气好蒙对了,细想真的有点细思极恐……你觉得呢?
──── 0人觉得很赞 ────

使用道具 举报

那么……这个病毒式传播的AI肖像到底在哪儿啊?有链接没?
这是条新闻啊。来源在这儿,然后这个是引发关注的新闻爆点。
TT是“Transformers for Time Series”(用于时间序列的Transformer)的缩写,是一种基于Transformer架构的时间序列预测模型。简单来说,它把原本用在自然语言处理里的强大模型——Transformer,拿过来处理像股票价格、天气变化、电力消耗这类按时间顺序排列的数据。你可能知道,传统的时间序列模型比如ARIMA或者LSTM,在处理长期依赖或复杂模式时会有点吃力。而TT利用Transformer的“注意力机制”,能更高效地捕捉时间序列中远距离的依赖关系和复杂规律,效果往往更好。打个比方:如果把一段时间序列看成一句话,每个时间点的数据就是一个“词”,那TT就能像理解一句话的意思那样,理解这些数据之间的上下文关系。所以,TT就是让AI用“读句子”的方式来“读懂”时间变化的趋势,做预测也就更准了。总的来说,TT不是某个单一模型,而是一类思路——用Transformer搞定时间序列问题。后面也发展出了很多变体,比如Informer、Autoformer、FEDformer等,都是在TT这个大方向上的优化和创新。
6 天前
大数定律嘛,这纯属巧合。你之所以注意到它,是因为感觉挺少见的。但其实啊,巧合这种事,比大多数人想的要常见多了。就拿生日来说,一间屋子里只要凑够23个人,有两个人生日在同一天的概率就能达到50%。是不是听着挺反直觉的?
为啥说机会太低呢?这张图其实是从一堆噪声里专门挑出来的,因为它正好符合特征。它不是 P(痣 | n),而是 P(痣 | 所有上传的图片)。而且就算按 P(痣 | n) 算,这个概率也没那么低。
这些AI呢,是通过把网上各种图片喂给训练算法来学习的。有可能的情况就是,这人在网上照片特别多,AI看多了就猜出来了。
好啊,你挺自信的,但这也没什么了不起的
好吧,首先啊,你评论里发的那个链接,我根本看不到那颗痣是啥样。再说了,现在每天网上生成的AI图片得有多少?几千张?几百万张?数都数不清。这么大的量摆在那儿,就算AI瞎猜,偶尔也能“碰巧”蒙对几次,对吧?纯粹就是概率问题。可大家呢,一发现AI生成的图里真有个类似的痣,立马就发网上嚷嚷:“哇,这也太神了!”  
但没人会去发那种AI压根没在现实位置长痣的地方给加痣的图——因为没啥好大惊小怪的啊。所以你看,一边是海量的随机数据,一边是强烈的选择性传播,这两个一结合,这种“AI神预测”的事儿不就一大堆出来了嘛。其实真没那么玄乎。
你该不会只是个不太行的机器人吧?我可不信你还没搞出个人工智能模型,我对你是有信心的。
我也不知道为啥,在某些照片里我完全变了个人,可能是因为我在社交媒体上发的照片本来就不多吧。
有个理论啊。十年前我们点了Google Photos的同意协议,结果就是——谷歌能拿我们所有照片去当训练数据用。这下明白了吧?所以啊,那个纳米香蕉,要是她或者她朋友存过谷歌相册,那AI早就“见”过她了,根本不是第一次。
你说的这评论,看起来你挺没劲的啊。你光会在这儿怼一个充满好奇心的帖子,可你根本不知道我是谁,也不知道我有什么本事。既然这样,你不如把你的想法留着自己琢磨呗?谢了哈~
您需要登录后才可以回帖 立即登录
高级模式