您当前位置: 首页 - 科技动态 - 每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

文章来源:互联网 作者:38资源网 发布时间:2024-12-09 16:43:38

世界人工智能大会于今日拉开帷幕,各界目光纷纷聚焦。这场盛会无疑将引领科技发展的新潮流。与此同时,有消息称,备受瞩目的英伟达H200芯片在第三季度将大量出货。这一消息引起了行业内的广泛关注,各方都在期待它带来的全新变革。

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

世界人工智能大会今日开幕 外媒:马斯克或线上出席

世界人工智能大会(WAIC)今日开幕,今年将围绕“以共商促共享 以善治促善智”的主题,打造“会议论坛、展览展示、评奖赛事、智能体验”四大核心内容。有外媒报道称,马斯克拟在开幕式上发表主旨演讲。尽管议程未明确指出马斯克是现场出席活动还是通过视频连线方式参与,但据知情人士透露,他预计不会亲自到场。(腾讯科技)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

消息称英伟达H200芯片第三季度大量交付,B100明年上半年出货

英伟达H200芯片预计三季度开始大规模交付,基于Hopper架构,首次采用HBM3e高带宽内存技术,大幅提升数据处理速度和容量,尤其在大型语言模型应用中。与H100相比,H200在生成式AI响应速度上最高提升45%。目前H100订单量仍大,出货时间最长可达20周。此前,英伟达CEO黄仁勋曾宣布,下一代B100芯片将于2025年上半年出货,将采用液冷散热技术。(IT之家)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

对话腾讯汤道生:AI不止于大模型

腾讯云与智慧产业事业群CEO汤道生认为,AI领域不应只关注大模型,企业应保持开放态度,关注多种技术路线。腾讯在AI投入上采取有节奏的长期策略,通过"721"方法分配资源,即70%投入核心业务,20%投入发展中产品,10%投向前沿技术。汤道生强调,腾讯高层对技术变革保持高度敏感,通过亲身体验产品来获取反馈,指引团队前进的方向。(腾讯新闻潜望)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

用AI创造元宇宙,Meta发布最强3D素材生成模型,一分钟创造一个世界

Meta推出3D Gen模型,能在一分钟内根据文本描述生成高质量3D素材。该模型结合AssetGen和TextureGen两个组件,实现从文本到3D图像再到3D模型的生成过程。相比其他文生3D模型,Meta 3D Gen在速度和质量上更优,具有更高的视觉美学和细节表现,适用于游戏开发、建筑可视化和VR/MR领域。(36氪)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

AI耗能致谷歌碳排放五年猛增近一半,2030年减排目标遇挑战

谷歌公司2023年因人工智能能源消耗增加,碳排放量达到1430万吨,较2019年增加48%,与2030年“净零排放”目标相悖。数据中心电力消耗是主要原因,预计2030年AI将占全球发电量的4.5%。谷歌正努力通过签署清洁能源协议减少排放,同时认为AI有助于解决气候问题。(澎湃新闻)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

Meta最新3D Gen模型实现60倍速生成,重燃元宇宙的希望

Meta的3D Gen模型能在60秒内从文本直接生成高质量3D资产,速度比其他方法快3到60倍;3D Gen支持基于物理的渲染(PBR),提高了3D资产的再照明能力和视觉质量;模型分为两阶段:AssetGen生成3D对象和纹理,TextureGen进一步优化纹理和PBR图,提升细节和质量。(新智元)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

AI视频独角兽Runway新一轮估值40亿美金,160倍ARR

Runway正在洽谈以40亿美元估值融资4.5亿美元,由General Atlantic领投;该公司的年经常性收入(ARR)为2500万美元,新估值是ARR的160倍,远高于行业常规;Runway面临来自Pika、Luma AI以及OpenAI的Sora以及谷歌Veo等的激烈竞争。(ZPotentials)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

国行苹果Vision Pro:价格下不去,身段上不来

苹果Vision Pro国行版发售遇冷,价格高达29999元,而美版价格已降至2.3万元。产品功能虽受部分用户好评,但因应用生态不足、使用不便等问题,多数用户选择退货。尽管有深度用户认为Vision Pro有潜力,但目前市场反应和用户接受度不高,苹果未来可能计划推出更廉价版本。(虎嗅APP)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

上线一周年之际,扎克伯格对标X的Threads平台月活用户数达1.75亿

Meta首席执行官扎克伯格日前宣布,其与马斯克的X竞争的Threads平台月活跃用户已经超过1.75亿。Threads即将于7月5日迎来上线一周年纪念日。目前,Threads财务上仍然处于亏损状态,该报道称Meta的高管正在考虑“明年某个时候”在Threads上引入广告系统。(IT之家)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

东方甄选,究竟要成为哪一种公司

东方甄选在发展中面临定位问题,需要明确其商业模式和发展方向。公司在直播带货领域取得成功,但未来可能需要拓展更多业务领域,以适应市场变化和消费者需求。东方甄选需在保持核心竞争力的同时,探索新的增长点和创新路径。(电厂)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

奥特曼被罢免事件始末再揭秘,仍有谜团待解

OpenAI掌门人山姆·奥特曼因内部矛盾被董事会解职,后经过五天紧张谈判重返CEO职位。事件起因于奥特曼试图排挤撰写敏感论文的董事海伦·托纳,却反被董事会指责撒谎、隐瞒真相。奥特曼的野心、对权力的渴望以及与公司前首席科学家苏茨凯弗的矛盾成为焦点。尽管奥特曼最终恢复职位,事件背后的动机和奥特曼个人形象的影响仍充满疑问。(腾讯科技)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

神舟十八号航天员乘组圆满完成第二次出舱活动

据中国载人航天工程办公室消息,北京时间2024年7月3日22时51分,经过约6.5小时的出舱活动,神舟十八号乘组航天员叶光富、李聪、李广苏密切协同,在空间站机械臂和地面科研人员的配合支持下,为空间站舱外管路、电缆及关键设备安装了空间碎片防护装置,并完成了舱外巡检任务。出舱航天员叶光富、李聪已安全返回问天实验舱,出舱活动取得圆满成功。截至目前,神舟十八号航天员乘组的“太空出差之旅”已完成三分之一,后续还将在轨开展大量科学实验与技术试验。(央视新闻)

每日科技早报|世界人工智能大会于今日拉开帷幕,有消息称英伟达H200芯片第三季度将大量出货

NVIDIA显卡驱动遭遇兼容性问题:老旧处理器遭遇Windows蓝屏故障频发

8月5日消息,一些用户在给配备较老处理器的个人电脑安装最新版英伟达显卡驱动程序时,遇到了蓝屏死机的问题。这表明新驱动可能与旧硬件存在兼容性问题,建议受影响用户暂时保持现有稳定驱动版本,或寻求官方社区支持以获取解决方案,避免擅自更新带来的潜在风险。

NVIDIA显卡驱动遭遇兼容性问题:老旧处理器遭遇Windows蓝屏故障频发

经深入调查,此问题根源直指英伟达的一项重大决策——自驱动版本555起,正式终止了对不支持POPCNT指令集处理器的支持。

POPCNT指令集,作为现代处理器中的一项高效工具,能够迅速统计二进制数中1的数量,极大提升了数据处理效率。

然而,遗憾的是,包括酷睿2双核系列在内的部分老旧处理器并未集成此指令集。因此,英伟达的技术调整无疑给这部分用户群体带来了不小的挑战。

具体而言,当此类用户在不知情的情况下安装了555版本或更高版本的英伟达显卡驱动后,系统会因不兼容而触发“系统线程异常未处理”的蓝屏错误,导致系统无法正常启动,影响用户的日常使用。

值得注意的是,此前微软已宣布,对于不具备POPCNT指令集的处理器,Windows 10及11系统将不再提供官方支持,而英伟达此次的驱动更新政策调整,无疑是对这一情况的进一步加剧。

尽管从市场角度看,使用老旧处理器搭配高端英伟达显卡的用户群体相对较小,但对于仍依赖这些硬件的用户而言,这一变化无疑带来了不小的困扰。

鉴于此,我们强烈建议这部分用户采取预防措施,避免系统自动更新驱动带来的潜在风险。具体而言,可通过手动关闭Windows Update中的驱动更新功能,确保系统稳定运行,直至找到合适的替代方案或升级硬件。

英伟达革新AI微调范式:Llama 3借RankRAG框架力压GPT-4,重写大模型竞争格局

最近,一场人工智能领域的革新风暴正在悄然兴起,源自佐治亚理工学院与英伟达的杰出华人学者们,他们携手打造了一款革命性的微调框架——RankRAG。

英伟达革新AI微调范式:Llama 3借RankRAG框架力压GPT-4,重写大模型竞争格局

不同于传统RAG(Retrieval-Augmented Generation)流程的繁琐与冗长,RankRAG巧妙地将检索、排名与生成三大核心环节融合于单一的大型语言模型(LLM)之中,极大地提升了模型的工作效率与效能。

RAG(Retrieval-Augmented Generation)是LLM部署中常用的技术,特别适合需要大量事实知识的文本生成任务。通常,RAG的流程是:基于文本编码的稠密模型从外部数据库中检索top-k文本段,然后LLM进行读取和生成。这个流程已经被广泛使用,但也有局限,比如k值选择。如果k值太大,即使是支持长上下文的LLM也难以快速处理;如果k值太小,又需要高召回率的检索机制,而现有的检索器和排名模型各有不足。

基于上述问题,RankRAG框架提出了新思路:通过微调扩展LLM能力,让LLM自己完成检索和排名。实验结果表明,这种方法不仅提高了数据效率,还显著增强了模型性能。特别是在多个通用基准和生物医学知识密集型基准上,RankRAG微调出的Llama38B/70B模型,分别超过了ChatQA-1.58B和ChatQA-1.570B模型。

RankRAG的关键在于其高度的交互性和可编辑性。用户不仅可以实时查看AI生成的内容,还能直接在界面上进行编辑和迭代。这种即时反馈机制大大提高了工作效率,让AI真正成为创作过程中的得力助手。更令人兴奋的是,本次更新让这些Artifacts不再局限于Claude平台内部,用户可以轻松地将它们分享到任何地方。

这次RankRAG微调框架的创新还包括两个阶段的指令微调。第一阶段进行监督微调(SFT),混合多个数据集以提高LLM的指令跟随能力。第二阶段的微调数据集包含多种QA数据、检索增强的QA数据和上下文排名数据,进一步提升LLM的检索和排名能力。

在实验中,RankRAG在九个通用领域数据集上的表现始终优于当前的开源SOTA模型ChatQA-1.5。特别是在具有挑战性的QA任务中,如长尾QA和多跳QA,RankRAG比ChatQA-1.5提高了10%以上的性能。

总的来说,RankRAG不仅在检索和生成任务中表现出色,还在生物医学RAG基准Mirage上展示了其强大的适应性。即使在没有微调的情况下,RankRAG在医学问答任务上的表现也超过了许多专业领域的开源模型。

随着RankRAG框架的提出和不断完善,我们有理由相信,AI与人类协作创作的未来将更加光明。无论是独立开发者还是研究人员,都能利用这一创新框架激发出更多创意和可能性,推动技术和应用的发展。

复制本文链接 攻略文章为38资源网所有,未经允许不得转载。