如果你是一名 AI 开发者或深度学习爱好者,那么你一定听说过 AlexNet——这个在 2012 年凭借 ImageNet 竞赛一战成名、直接把计算机视觉能力拔高了一个量级的深度卷积神经网络模型。 而就在最近,计算机历史博物馆(CHM)与谷歌合作,终于正式开源了 AlexNet 的源 ...
【新智元导读】AI界「双神会」来了!一场NeurIPS 2025炉边谈话,AI教父Hinton和Jeff Dean同台,亲口爆料了AI革命「那些年」,还有更多鲜为人知的轶事。
通用GPU以英伟达为代表,生态开放、适配性强,成为大多数AI公司的首选;专用ASIC以谷歌TPU为代表,在特定场景深度优化,能效比极高;云端专用芯片如AWS的Trainium,与云服务深度集成,服务于企业级客户;边缘AI芯片则专注于低功耗和端侧优化,广泛应用于手机、汽车和物联网设备。
从一行行代码、注释中感受 AlexNet 的诞生,或许老代码中还藏着启发未来的「新」知识。 想知道 AlexNet 2012 年的原始代码长什么样吗?现在,机会来了!刚刚,谷歌首席科学家 Jeff Dean 宣布,他们与计算机历史博物馆(CHM)合作,共同发布了 AlexNet 的源代码,并 ...
想知道 AlexNet 2012 年的原始代码长什么样吗?现在,机会来了!刚刚,谷歌首席科学家 Jeff Dean 宣布,他们与计算机历史博物馆(CHM)合作,共同发布了 AlexNet 的源代码,并将长期保存这些代码。 AlexNet 是一个人工神经网络,用于识别照片内容。它由当时的多伦多 ...
近日,谷歌与计算机历史博物馆(CHM)联合发布了 AlexNet 项目源代码。目前,项目的 Python 代码已作为开源软件在 CHM 的 GitHub 页面上对外开放,允许 AI 爱好者和研究人员一窥这项在计算发展史上开天辟地的关键成果。 AlexNet 是一种卷积神经网络 (CNN),其在 2012 ...
感兴趣的开发者可前往查看。 如果你是一名 AI 开发者或深度学习爱好者,那么你一定听说过 AlexNet——这个在 2012 年凭借 ImageNet 竞赛一战成名、直接把计算机视觉能力拔高了一个量级的深度卷积神经网络模型。 而就在最近,计算机历史博物馆(CHM)与谷歌合作 ...
本文将重点描述基于AlexNet的2D卷积核的实例应用。 MLP_Conv2D是功能齐全的设计,可将2D输入图像与多个内核同时进行卷积。 该设计充分利用了MLP和BRAM模块,每个MLP一个周期执行12个int8乘法。此外,MLP列和BRAM块均等级联以有效地将图像数据传递,从而允许同时处理 ...
本研究针对工业遗产损伤检测效率低、精度不足的问题,提出融合CBAM注意力机制与SVM分类器的AlexNet HCS模型。实验结合xBD数据 ...
为解决糖尿病视网膜病变(DR)诊断中数据集类别不平衡和图像尺寸差异大的问题,研究人员开展了结合生成对抗网络(GAN)和AlexNet深度学习算法的研究。通过GAN生成合成眼底图像平衡数据集,并利用改进的AlexNet架构进行五级严重程度分类。实验结果表明,GAN-AlexNet ...
如今,你每过五分钟就会听到关于人工智能的各种各样的消息。但你有没有想过我们是如何走到今天的?这主要归功于 2012 年的开创性神经网络 AlexNet。虽然它并没有立即引起轰动,但它最终成为了我们今天所经历的深度学习革命的基础。现在,经过多年的谈判 ...
12月8日消息,在最近一期乔·罗根(Joe Rogan)podcast节目中,英伟达(Nvidia)首席执行官黄仁勋(Jensen Huang)作为嘉宾参与了访谈。黄仁勋表示,深度学习的爆发源于2012年英伟达使用GTX 580 显卡的SLI 配置。可以说,没有GTX 580,就没有英伟达今天在AI市场的霸主地位。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果