您现在的位置是:首页 > 置顶轮播图822*450 >
AI创世纪 如何成为赢家
2024-05-21 09:26:25作者:于帆来源:
摘要自Sora文生视频大模型发布以来,AI应用已经进入史上最密集的发布期,各大科技巨头正面对决,中小模型加速演进,交互范式迎来革新,AI生态逐渐完善。...
近日,AI界频频有新动作:字节跳动发布豆包大模型“全家桶”,百万Tokens(表示和传递信息的标识符)只卖8毛;腾讯宣布混元文生图大模型全面开源,支持中英文双语输入及理解,参数量达到15亿;谷歌在2024年开发者大会上推出十几款AI产品,试图全面对标OpenAI;OpenAI发布ChatGPT新UI,桌面版GPT,以及能读懂人类情绪、无时延多模态实时交互的“像魔法一样”的多模态模型GPT-4o。
这仅是一周内AI界的部分事件。
自Sora文生视频大模型发布以来,AI应用已经进入史上最密集的发布期,各大科技巨头正面对决,中小模型加速演进,交互范式迎来革新,AI生态逐渐完善。甲子光年创始人兼CEO张一甲在“甲子光年X大会”上表示,技术刺激市场的频次变高,但单次刺激的力度却在减小。新技术新应用的搜索指数,从峰值下降的速度远高于2023年,AI为公众带来的情绪曲线逐渐趋于平缓。同时,AI前沿技术的追赶周期明显缩短,从文本生成到千亿参数,从文生视频到超长文本,新技术一问世,后来者便加速。而各大AI相关企业在“卷”大模型性能、参数的竞赛中,也将比拼的重心逐渐向成本优化、应用落地等商业部分倾斜。过去狂飙突进的AI行业,其生态正在悄然发生变革。
甲子光年创始人兼CEO张一甲
左手技术信仰 右手市场考量
AI企业是近年来投融资的宠儿,哪怕是零收入的状态,也能凭借技术赢得各大投资人的青睐。推出“第一位接近人类的AI程序员”的AI初创企业CognitionLabs,公司估值从3.5亿美元到20亿美元,仅仅用了一个月。CognitionLabs的融资神话并不是AI界的孤例,AI的迅猛发展吸引了一波又一波的大手笔投资。
但据红杉资本透露,AI行业去年仅在英伟达芯片上就花费了500亿美元,但产出的营收只有30亿美元,17∶1的投入产出比令人咋舌。
张一甲对此表示,从好的方面看,作为对比,SaaS(软件即服务)花了近10年才达到这个收入水平,从坏的方面看,AI的商业闭环还没有形成。
DeepMind创始人Hassiabis强调:“现在资本对于AI赛道的投入已经有点当初加密货币的味道了,而真正的AI带来的可以改变人类的科学突破却没有得到应有的重视。”
AI的快速发展在带来机遇的同时,也伴随着高昂成本和极大的不确定性。如何在技术创新与成本控制之间找到平衡点,确定可持续的商业模式是所有AI企业要面临的重要问题。
金沙江创业投资基金主管合伙人朱啸虎表示,大模型的商业模式非常差,技术没有差异点,且每一代模型都要重新砸钱,每一代的变现周期仅有两三年。他强调,企业的目标不应该是技术领先,而是商业化体验。层出不穷的新技术让用户的注意力难以集中,“日抛型”应用遍地开花,因此抢占用户数据才是企业的头等大事。用户和市场并不关注技术领域第一、第二名的差距,上游水准的技术能够满足大部分用户的需求。用户在手,技术迭代,才是企业合理的商业化演进路径。朱啸虎表示,创业者往往充满浪漫情怀,喜欢谈论无限可能和想象力,而投资人则相对务实,更关注商业化前景。
金沙江创业投资基金主管合伙人朱啸虎
摩尔线程创始人兼CEO张建中则有不同意见。他表示,技术创新需要与行业紧密结合才能实现真正的商业化。技术创新能够改造行业,行业越是先行,AI挖掘的商业价值越大,例如办公应用、人脸识别、医疗健康等领域。以人脸识别为例,深度学习框架应用于人脸识别业务,使得推理精度从60%左右提升至90%左右,能够识别出人眼识别不出的双胞胎。
摩尔线程创始人兼CEO张建中
AI在诸多领域能做到人类做不到的事,但“贫穷限制了想象力”,即算力资源匮乏是AI行业迭代放缓、实验搁置的关键因素。张建中表示,这需要芯片厂商挺身而出,建设人人用得起的算力底座。
猎豹移动董事长兼CEO傅盛则推行技术市场平衡策略。他表示,长期坚持技术主义,短期要以市场需求为核心。AI改变了劳动力、技术、数据、资本、土地五大生产要素,对全行业的颠覆已成必然趋势。但技术并不是线性发展,而是阶段性进步。往往一次技术突破带来一轮市场化运作,再进入技术瓶颈期,周而复始。企业关注的焦点必须与市场紧密结合,算力资源越是有限,技术执念越应该让位于市场需求。过度迷信技术本身带来的爆发力而不计成本地投入,反而会导致行业泡沫的破灭,即所谓的资源陷阱。
猎豹移动董事长兼CEO傅盛
中科视语联合创始人张腊提出了更为具体的商业闭环策略。她提出,要明确AI技术能够解决的具体问题,同时建立一套完整的产品开发、市场营销和售后服务体系,建立敏捷性和市场适应能力,确保技术能够快速响应市场变化,从而形成完整的商业闭环。技术研发需要巨额投入,从研发到市场应用落地的过程中存在许多不确定性。因此构建一个有效的商业闭环对AI技术的长远发展至关重要。
先发优势与后发优势
在AI行业发展中,先发和后发是两种不同的战略考量。
先发优势在于建立强大的品牌忠诚度和用户黏性,通过技术领先建立企业护城河,能够更早收集用户数据训练AI模型,根据市场反馈迭代产品。同时,先发优势也要面临巨额初期投资、市场不确定性等风险。
后发优势在于跟着前辈过河,避开技术、市场陷阱的同时,能提高成本效益,有利于通过差异化策略瞄准细分用户。当然,后发也不可避免要面对市场进入障碍以及技术、资本差距。
具体实践中,先发与后发到底该如何选择?
对于大公司而言,可能倾向于先发,因为它们有资源和能力去承担早期的研发成本。对于小公司或初创公司,可能会更倾向于后发,因为它们可以利用市场上已有的技术和资源,专注于快速迭代和满足特定用户需求。
清华大学电子工程系系主任、教授汪玉表示,从学术角度来说,必须要争取先发优势,从业务角度来说,所谓先发优势并非技术,而是生态建设。
清华大学电子工程系系主任、教授汪玉
AI生态指的是一个互相依赖、共同发展的环境,由算法、硬件、软件和应用共同构成,包括技术提供者、应用开发者、用户、硬件制造商、服务提供者等。在激烈的技术竞争中,技术壁垒很难长期维持。
以英伟达为代表的硬件提供商,在算力竞赛中赚得盆满钵满,囤积足够的算力芯片一度成为AI竞争的焦点。
此后各大科技巨头频频传出要发展自己的AI芯片:软银集团旗下公司Arm计划自研AI芯片,目标是在2025年春季打造原型产品,并将于当年晚些时候实现量产;微软早在2019年就开始在内部开发代号为“雅典娜”的AI芯片,2023年11月正式推出AI芯片Maia100,将为其Azure数据中心提供算力。
算力竞赛的火热,颇有得芯片者得未来的架势。
但近日,各大企业似乎都在推出更高效的模型,以减少对GPU等昂贵硬件资源的需求。谷歌的GeminiNano、微软的Phi-3-mini、苹果的OpenELM,参数小的小语言模型如雨后春笋般冒出来。大规模训练是一场烧钱游戏,但吸金能力却迟迟得不到验证。算力荒问题也在进一步蔓延。小模型能有效降低模型推理训练的高昂算力成本,本地设备运行使其无须依赖昂贵的云计算设施,方便集成到各种设备及应用中。同时,小模型可以针对特定应用场景进行定制和优化。
OpenAI是AI界毋庸置疑的领头羊级别的明星企业。但ChatGPT和GPT-4之后,一直没有同等重量级的AI新产品问世。
不久前结束的OpenAI春季发布会,既没有发布传闻中的搜索引擎,也不是GPT5,而是GPT-4的迭代版本———GPT-4o,精简GPT-4的构架,优化推理参数,同时节省了更多的GPU。
傅盛表示,算力军备竞赛走到今天,裁剪参数的走势非常明显。通过优化算法减少算力需求,或将影响先发者依赖的硬件优势,同时弱化相关硬件供应商的业务模式和市场地位。
张建中则强调,GPU的迭代速度不比大语言模型的迭代速度慢,GPU有各种不同的应用场景,能跟着算法的迭代不停地优化架构,适配未来的应用场景。
小模型遍地开花,大模型也不遑多让。
近日,MiniMax正式推出abab6.5系列模型,其中abab6.5包含万亿参数,支持200kTokens的上下文长度。阿里云发布通义千问2.5,据称“在中文场景模型性能赶超GPT-4-Turbo”,同时1100亿参数开源模型在多个基准测评中收获最佳成绩。字节跳动发布豆包大模型,目前日均处理1200亿Tokens文本,生成3000万张图片。
据麦肯锡报告分析,大模型的价值创造潜力惊人,到2030年,有望在全球推动49万亿元人民币的经济增量。目前大模型仍处于用户增长的爬坡期。QuestMobile数据显示,截至2024年3月,基于大模型的AIGC行业用户量为7380万,尽管同比增长了8倍,也仅占移动互联网用户量的6%。
未来AI应用或将呈现大小模型混合发展的格局。
谁来供养AI?
AI继续发展会去往何方?中信建投5月14日研报指出,国产AI大模型正在快速迭代,今年有望成为AI应用爆发的元年,渗透率预计持续提升。
出门问问创始人兼CEO李志飞表示,产品和模型的结合是实现AI商业化的关键。他认为,当前AI领域存在产品和模型脱节的问题,导致产品不能满足用户需求。同时,开发一流的模型成本高昂,对创业公司来说难以为继。这要求企业必须清晰地定义产品目标和模型的技术指标,通过自主模型为产品提供强大的迭代能力和市场竞争力。基于产品的高质量数据,是构建持久竞争壁垒的关键。
出门问问创始人兼CEO李志飞
应用爆发也将促进算力基础设施建设。商汤科技联合创始人杨帆表示,AI的三要素,算力、算法、数据的基础设施化是产业发展的必然趋势。硅谷知名投资人张璐指出,当前AI基础设施仍面临四大挑战,包括GPU算力消耗、能耗问题、延迟问题和数据隐私与安全问题。因此AI基础设施的创新变得尤为关键,包括芯片硬件、云计算、数据处理、网络安全以及边缘计算等方面。青云科技副总裁沈鸥则强调,国产算力适配的重要性以及算力平台的可靠性。
但是,即使是融资数十亿美元的科创企业,距离建设算力中心仍有漫长的距离。张建中表示,算力基础设施应当是公用性的,让人人都能随时随地调用算力资源。北电数智战略与市场负责人杨震提出要从硬件、软件和场域层面重新定义AI基础设施,他提到,北京市数字经济算力中心扮演的正是公共算力提供者的角色。
高质量数据对机器学习算法的准确性、性能和鲁棒性至关重要。张璐提到,对于AI应用来说,海量高质量数据的作用举足轻重。而高质量数据是否正在枯竭是近来争议的焦点。
EpochAI人工智能预测组织的研究显示,AI公司可能在2026年前耗尽高质量文本训练数据,而低质量文本和图像数据的枯竭时间可能介于2030年至2060年之间。澳大利亚麦考瑞大学的信息技术法学教授RitaMatulionyte提出了使用合成数据的可能解决方案,即由AI模型生成的数据用于培训新模型。谷歌曾曝出Bard的训练数据部分来自ChatGPT,Bard更名为Gemini后,则曝出用文心一言训练中文语料的魔幻内幕,向GeminiPro提问,它会说自己是百度的文心大模型。中关村智友研究院院长王田苗则认为AI合成数据在训练底层智能行为方面效果很好,尤其是在具身智能领域,通过生成数据训练可以提高机器人的操作能力。
针对高质量数据荒的讨论,华裔人工智能科学家、斯坦福大学教授李飞飞则直言,当前AI训练数据并不存在短缺的问题,仍有大量的差异化的数据等待挖掘。“我们尚未触及的数据领域还很多,如医疗保健、环境、教育等。因此,我并不认为我们正在耗尽数据。”
(本文不涉密)
责任编辑:于帆
上一篇:“织”牢算力网,还需越过几道坎?
下一篇:低空经济 振翅高飞