发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 438 4 10 小时前
用纯C写了个GPT5高制作的NES模拟器,只用了20分钟!
还能加载ROM文件呢。
现在就差图形和音频部分没实现了……
编辑
居然连图形和音频都用纯C搞定了……我都不敢相信!
从开始到全部完成,居然只用了40分钟!
我原本以为AI能写出个NES模拟器,起码也得等到2026或2027年,这也太疯狂了吧!
──── 0人觉得很赞 ────

使用道具 举报

他们在训练数据里其实已经见过类似的代码了。如果你能用某种特别冷门、偏门的语言来实现它,而且之前还没人用那种语言做过模拟器——比如用HolyC这种小众语言,那就显得特别牛逼了。不过说实话,像这种大型编程语言,几乎每种都已经有能跑的模拟器代码了,这些模型肯定也早就学过了。
我特别想看看这消息是哪儿来的
几年前我确实认同这个观点,不过我觉得任天堂这些年可是立了不少先例啊。
我整了个纯手工的NES模拟器,没用AI也没写代码,就靠命令行、GitHub 和编译器搞定的!
当然可以啊!你具体想测试什么类型的模拟器?比如是网络模拟、硬件模拟,还是像游戏模拟器这种?你先说说你的需求,我好给你推荐合适的方案 😄
真是服了!这年头AI都这么猛了?我刚刚看到一个特别有意思的分享,说是现在用AI做视频、写代码、搞设计都快成标配了。以前得专业团队干好几天的活,现在一个提示词下去,几分钟就搞定了。这玩意儿发展得也太快了吧,感觉每天都有新东西出来,让人应接不暇啊!你有没有觉得,现在不学点AI相关的技能,都要跟不上时代了?
已经搞定了plus controller和audio……
它没法直接这么做,除非它只是在拼凑其他开源代码,搞出个“弗兰肯斯坦”似的东西。我非常怀疑这样能成功
大模型其实不会像人那样真正“拼凑”东西,除非它处于检索模式并通过搜索引擎来辅助。当然,你可以用它来迭代出相当复杂的代码库——我其实在回复你的时候就在这么做(现在就在用 GPT5 来迭代一个基于 TUI 的聊天机器人应用的 markdown 表格布局引擎,用的是 Rust,结果越来越好)。在基于智能代理的开发过程中,整个上下文本身会不断告诉你下一步该做什么:比如测试失败、程序输出、用户反馈等等。如果你能明确地定义行为,抓住机会扩大测试覆盖范围,合理地对代码进行模块化,那么你可以得到非常不错的结果。但这里面 99% 的工作其实不是写代码本身——而是定义行为。
你说的这个问题挺有意思的。其实你想问的是,如果在训练数据里已经包含了很多类似的任务或者例子,那像 GPT4.1 或者 o1 这样的模型,为什么不能直接“照着做”呢?这背后有几个原因:1. 训练数据≠完全记住:模型在训练时虽然看到了大量数据,但它并不是像数据库那样把所有内容都完整存下来。它更像是通过统计规律“学会”了怎么生成内容,而不是“记住”了每一个例子。2. 推理能力有限:即使训练数据里有类似的逻辑推理题,模型在推理时也未必能完全复现。它更擅长模仿和联想,而不是像人一样一步步严格推导。3. o1 的改进方向:据说 o1 更注重推理能力,用了类似“内部思考”的方式来提升逻辑推理水平。但它依然受限于训练数据中的模式,不能保证 100% 正确还原或执行复杂推理。4. 泛化 vs 精确执行:模型擅长泛化,也就是从见过的例子中推演出新内容。但它很难做到像程序一样精确地“执行”某个任务,除非这个任务在训练数据中反复出现且模式清晰。所以,即使训练数据里有答案,模型也未必能完美“重现”出来。这也是目前大模型的一个瓶颈:它们更像是“模仿者”,而不是“执行者”。
您需要登录后才可以回帖 立即登录
高级模式