你敢信?一个活在95年前的AI,竟写出了Python代码。GPT之父下场,用2600亿Token炼出了一个「老古董」AI。 一个从未见过电脑的AI,竟写出了现代编程语言! 这可不是什么科幻的设定。 就在今天,GPT之父Alec ...
近日,前 OpenAI 研究成员、GPT 之父 Alec Radford 和加拿大多伦多大学副教授 David Duvenaud 等人打造出一款只读过 1930 年以前文字、从未接触过任何现代信息的大模型,这款大模型的名字叫做 talkie,是一个 ...
一个训练数据截止到 1911 年的模型,能不能自己推导出爱因斯坦 1915 年提出的广义相对论? 「一个训练数据截止到 1911 年的模型,能不能自己推导出爱因斯坦 1915 年提出的广义相对论?」今年年初,哈萨比斯给出了一个极其硬核的 AGI 判定标准。 没想到的是,这件事真的有人尝试去做了,而且其中一位作者还是 GPT 之父 Alec Radford。 最近,Alec Radford 和「神经 ...
在AI领域,有一种叫做"多数投票"或"自洽性"的技术,原理与此一脉相承。具体做法是:让同一个AI对同一道题独立作答好几次,最后统计哪个答案出现次数最多,把票数最高的那个作为最终结果。这背后有一个来自法国大革命时期数学家孔多塞的理论支撑:只要每次答题的 ...
至顶头条 on MSN
"复古"大语言模型Talkie:知识停留在1930年前,会产生哪些独特价值?
三位AI研究人员发布了一款名为Talkie的130亿参数"复古"语言模型,其训练数据仅来自1930年前出版的英文书籍、报纸、期刊、科学杂志、专利及案例法。该模型旨在探索AI理解历史文化变迁、预测未来及评估长期预测方法的能力。目前Talkie性能弱于现代同架构模型,主要瓶颈在于OCR文本噪声问题。团队计划持续扩展模型规模,目标于今年夏季推出GPT-3级别版本。
这套思路对强模型和弱模型的价值不同。强模型通常能靠自身能力绕过一些环境错误和执行偏差,但代价是更多token、更多工具调用和更长耗时。弱模型、本地模型和开源模型更依赖系统层补偿:路径要更明确,依赖要提前处理,输出格式要被约束,复杂流程要拆成它能稳定执 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果