近日,前 OpenAI 研究成员、GPT 之父 Alec Radford 和加拿大多伦多大学副教授 David Duvenaud 等人打造出一款只读过 1930 年以前文字、从未接触过任何现代信息的大模型,这款大模型的名字叫做 talkie,是一个 ...
你敢信?一个活在95年前的AI,竟写出了Python代码。GPT之父下场,用2600亿Token炼出了一个「老古董」AI。 一个从未见过电脑的AI,竟写出了现代编程语言! 这可不是什么科幻的设定。 就在今天,GPT之父Alec ...
一个训练数据截止到 1911 年的模型,能不能自己推导出爱因斯坦 1915 年提出的广义相对论? 「一个训练数据截止到 1911 年的模型,能不能自己推导出爱因斯坦 1915 年提出的广义相对论?」今年年初,哈萨比斯给出了一个极其硬核的 AGI 判定标准。 没想到的是,这件事真的有人尝试去做了,而且其中一位作者还是 GPT 之父 Alec Radford。 最近,Alec Radford 和「神经 ...
霍格沃兹测试开发学社的私教服务正是针对这些“技术之外的关键能力”提供一对一深度辅导,帮助测试工程师在职业道路上走得更稳、更远。如果你也在项目中感到迷茫,在沟通中屡屡受挫,或许一次专业的指导就能为你打开新的思路。
对于国内AI爱好者来说,想要体验最新的GPT5.4,寻找一个稳定、免费且无需特殊网络环境的“镜像站”是最直接的解决方案。目前实测体验最好的聚合镜像平 ...
在AI领域,有一种叫做"多数投票"或"自洽性"的技术,原理与此一脉相承。具体做法是:让同一个AI对同一道题独立作答好几次,最后统计哪个答案出现次数最多,把票数最高的那个作为最终结果。这背后有一个来自法国大革命时期数学家孔多塞的理论支撑:只要每次答题的 ...
三位AI研究人员发布了一款名为Talkie的130亿参数"复古"语言模型,其训练数据仅来自1930年前出版的英文书籍、报纸、期刊、科学杂志、专利及案例法。该模型旨在探索AI理解历史文化变迁、预测未来及评估长期预测方法的能力。目前Talkie性能弱于现代同架构模型,主要瓶颈在于OCR文本噪声问题。团队计划持续扩展模型规模,目标于今年夏季推出GPT-3级别版本。
【本文由小黑盒作者@Yomiiko于04月09日发布,转载请标明出处!】 ...