这一波人工智能泡沫将会怎么破灭?

很明显的,以深度学习为主力的这一波人工智能浪潮,从我高三吹到了我大四毕业,很明显深度学习不可能处理复杂的任务,虽然号称模拟大脑,但是几乎与认知科学的研究隔绝。各大互联网公司都争先投入大量资源,连英伟达都加入战团。

我感觉深度学习致命一点是不能应用在太多普通用户的产品上面,只适合搜索引擎和学术方面,现在主要的产品基本都是为搜索引擎服务的,普通的创业者根本没机会玩,数据不如大公司多,普通用户也没有那个需求。

深度学习既不会像图形操作界面或者互联网那样改变大部分人的生活,也不会像3D打印那样有改变生产方式的趋势,20年之内几乎不会减少白领的工作量。

看来深度学习很精巧,结果很漂亮,实际华而不实。
收藏者
0
被浏览
101

5 个回答

54sh54sh LV

发表于 2025-4-7 16:35:39

一般的泡沫该怎么破,AI的泡沫就会怎么破。问题在于,目标检测和LLM的泡沫真的能算同一个吗?
深度学习的时代从十几年前开始,最初流行的是喜闻乐见的分类检测分割CV三件套,相应的泡沫startup也涌出一大堆,到今天已经倒闭的差不多了,这泡沫早就破完了。
然后是AlphaGO开始的各种RL技术,一样搞出了一大堆泡沫startup,现在也已经剩不下多少。
还有speech,从ASR到语音合成,曾经也极其流行,现在差不多变成了濒危物种,其产生的泡沫下场一样凄惨。
还有以BERT为代表的传统(?)NLP,也有过不少智能客服之类的泡沫,现在全被LLM爆金币。
是,今天的绝大多数LLM公司都会被卷死,让投资统统打水漂;是,99%搞diffusion的都是死路一条,能留下一两家都是很不错的结果;是,几乎所有AI4Science的产出都会是纯粹的垃圾,倒闭也根本不会让人感到可惜。今日的泡沫都会破,这一切甚至不会花费很久。
但泡沫破裂后剩下的东西依然改变了世界。目标检测早就在工业界应用广泛,LLM依然需要RLHF,AI配音在b站随便点开几个视频就能听到,只有BERT...大概是真的死了。
眼花缭乱的LLM公司成批破产清算后我们依然会用LLM写烦琐但简单的垃圾代码;diffusion生成的表情包依然会四处流传,活跃在整活的前线,即便已经不再有人关心”AI画图是不是拼尸块“;AI辅助设计药物会成为标准,而非什么fancy的创新方法,变得和空气一样重要却无人关心。
至于那时的AI泡沫?天知道那时候的“AI”到底会是些什么东西。反正,不会和GPT,Sora或者AlphaFold有多大关联:那是新的泡沫,而非今日的AI泡沫延续到了未来。AI是一个过于广阔的领域,唯一不变的只有变化本身。
<hr/>很有趣的一点是,这个问题的各个回答的时间跨度几乎达到十年,而过去的回答中,关于深度学习发展的各种预测,无论是乐观还是悲观的,许多都错在了完全没想到的地方,随便看几个:
@陈然
人类对于机器智能的发展,有一个非常大的局限性,就是把人类的思考方式,作为衡量是否智能的标准,导致容易错误地估计机器智能的发展。我们总是认为,只有像人类一样能够流畅地对话和理解彼此,才是真正的智能。很多人喜欢吐槽聊天机器人(或者人工助理等等),经过这么多年的发展,依然不能理解人类语言,只能用作无聊讲笑话的小玩具,并因此否定机器智能的进步。然而,事实是,机器智能的进步,比如对语言的理解,是以另外一种方式飞速前进着。在搜索引擎、机器翻译、推荐系统等各种应用中,都有体现。
LLM已经可以轻易像人类一样能够流畅地对话了,但这是否算是“真正的智能”依然没有定论。相反,搜索引擎、机器翻译、推荐系统早就不是AI的热点了。
@李明骏
深度学习最强大的应用就是语音和图像这个就是事实,还有一些自然语言处理。其他的领域真的是没有太大的突破性的进展。
所以当具体到各个领域的产业界,深度学习往往是在传统机器学习无法更好的解决问题时,并且深度学习能有明显的效果提升的时候才用的,而不是上来就用深度学习。深度学习往往做得是较为底层的东西。
这几年深度学习更多是问题的制造者而不是解决者,没人用传统方法文生图/文生代码过吧?也没人用n-gram做GPT吧?
第五,貌似很强大的迁移能力,利用深层提取的抽象特征能使得后续类似的训练仅仅需要很少的数据量就能,但实际上这种强大的迁移能力并非适用于所有领域,运用广泛的也就是图像和语音,其他的领域这种所谓的迁移能力的应用实践起来远比想象得要困难,很多时候连思路都没有。
目前通用性最强的模型是基于文本的,没想到吧,图像和语音反而饱受通用性不足的困扰,那一点点通用性还是NLP上蹭来的。
这和上世纪的科幻小说的情况有点像,50年代的人会认为2000年人类怎么也该殖民火星了,却不会想到2024的人类每天要对着一块发光玻璃看好几个小时。
但愿我的回答不要在10年后回旋镖我自己

希哦那个台 LV

发表于 2025-4-7 16:46:56

我比较担心的是这一波人工智能的传统工科化。
计算机行业发展历史很短,但却非常迅速的一个原因,是在相当长的时期工程师的试验成本是非常低的。90年代以来的很多创业神话,往往是几个人甚至一个人,用电脑就能制造出对世界价值巨大的产品。在这个过程中,人的价值得到了最大化的发挥,而固定成本投入的占比则非常低。
而传统工科的状态呢。做任何事情都有着巨大的固定成本投入。这里就算是比较低的电子工程,想自己做个简单产品的全流程也往往是一个人难以承受的。而机械、化工、生物等领域,想作出个有价值的最小价值产品(MVP)的投入,往往是中产之家也难以承担的。
这一波人工智能就有这非常明显的传统工科特点。无论是大语言模型,还是AI绘画。都需要显存巨大的显卡算力。想要达到最低门槛的玩具级模型的算力需求,也需要数万元。想做入门级的试验则需要投入数百万上千万。这个投入并不是说少花点钱,慢一点可以接受。而是没有足够的一次性投入硬件,这些模型根本就没法载入显存进行计算,是个硬性门槛。
在这一波人工智能热潮中,我也看到了很多传统工科化的顽疾了。人们之间不再比拼自己的算法设计,架构设计,模型设计。而是吹嘘自己拥有了多少显卡算力。工程师和科学家的智慧在整个系统中的重要性在持续降低。这跟传统工科中吹嘘自己拥有多么昂贵的进口设备和工具一样,人变的不重要,在昂贵的设备和工具面前矮化自己。

回到题主的问题,这一波人工智能热潮的传统工科化,高昂的固定投入成本,会导致能参与这波热潮的人变得很少,进而导致技术进化缓慢。在人们逐渐发现了这一波技术的能力边界以后,难以拉上更多的人去推进技术的发展。
以大语言模型为例,只有模型参数量达到了一个足够大的水平,才会出现神器的涌现能力。而要达到这个门槛,最低也要数百万人民币的投入。加上算力迭代速度快,这个投入更可能是每年几百万。估计即便是985大学,也只有一部分能负担的起这个费用。国内的互联网公司,能参与进去这一波热潮的公司,大概率也只有十几家到小几十家。而想要跟OpenAI等公司进行算力上对等的发展,则需要每年数十亿的资金来购置和更新设备。这样的环境会导致人才断层。当一个公司想扩大研发规模时,将无法从大学或其他中小规模公司找到人。
计算机行业在过去几十年来,都是个不问出身,只看产出的环境。我身边的朋友就见过各种不同专业转行来的,学历可以低至中专和体育生。但这些年计算机行业的低门槛,使得钱没有成为限制他们成长的桎梏。而现在的人工智能热潮,则正在把绝大部分人拦在门外,成为一个传统工科。

胖六传奇 LV

发表于 2025-4-7 16:57:27

大部分的回答都是五年以前了。最近在考CQF,课题就是人工智能的资本量化分析,同时又在做深度学习的底层工作(非对比式自监督学习)。在这里从金融(面向业界)和科学(面向学界)两个角度分别分析,并且综合两者提供面向从业者和投资人的建议。
先上结论。

  • 深度学习的大方向并没有问题,基于梯度的学习算法是一个非常solid的启发式算法,拥有很强的生命力,在现在以及将来都会持续展示其能力。从业者需要继续努力,投资人需要保持信心。
  • 深度学习展现出的黑箱性质使得深度学习快速趋于饱和。即使基于梯度的方法带来了很好的效果,并没有研究(包括梯度提出人Yann LeCun)能够指出深层模型的运作机理,整个行业成为经验行业,缺乏统一性。
  • 由于资本的短期逐利效应,加之深度学习社区的逐渐低龄化、泛学科化,单纯以深度学习的应用作为竞争力的从业者将很快被淘汰,单纯面向深度学习的资本也会很快成为泡沫。
  • 从业者如果希望自己保持竞争力,需要尽量多学习底层数学原理,不要急于求成进行实验。很多数学底子好的从业者因为急功近利,并没有系统地学习底层数学,过早投入学界业界,导致后劲不足,大有“伤仲永”的人在。特别是本科和硕士阶段,要将做项目的时间抽离出来多放到底层原理的学习,这可以帮助从业者形成对于黑箱的原理解读,极大提升从业者能力上限。要提升能力,不要盯着ArXiv、顶会文章一顿读,先去读经典。
  • 投资人不要认为深度学习有什么魔法,有点水平的程序员很轻松就能写出优雅的深度学习代码。不要被深度学习的表象迷惑,要看公司是如何运用深度学习的,是如何将深度学习和实际产业结合的,关键在于可落地性。要深刻意识到深度学习的黑箱性质,尽量把资本投向有深度的公司和项目,而不是刚创业就喊着颠覆业界的upstart们。这种刚创业就自命不凡的团队,大部分都是刚从公司和高校走出来的萌新,完全不懂知识落地的难度。
如果你对哪一点有疑问,请继续读。

<hr/>首先看看金融。“泡沫“是一个资本术语,不是科学术语。谈金融要看业界,不能看学界。“泡沫”表示资本(理性经济人)的投入大于项目短期的经济价值,这种状态一般发生在业界。学界很穷,教授也要靠带横向和公司合作赚点外快,根本没有泡沫之说。这一般只在微观经济学中讨论,目标是快速得到金融实体的自身利益。很好理解,不管是散户还是金融集团,投资肯定是为了赚快钱
注意,这里深度学习公司和资本家是对立的。资本家/散户是为了赚快钱;公司(知识资源的所有者)的最终目标虽然也是赚钱,但是其收支预期变化率比资本(知识资源的支持者)小的多。为了公司的利益,公司会进行多轮面向资本方的项目融资会议,在这个时候会大力宣传项目的知识特色。例如深度学习,现在创业公司基本上都会提,已经到了不提甚至没脸开会的地步。
总结一下,资本这边:资本期望快速回报;泡沫夸大短期价值;公司融资获得启动资金。
再来看看科学。谈科学要看学界,不能看业界,业界比学界慢5-8年。深度学习现在主要的应用就是在CV和NLP,这俩算是应用链里的顶层,性能确实比传统方法优秀不少。但深度学习最大的问题在于,模型具有很强的不可解释性(黑箱性),这导致学界的整体研究方向五花八门,CVPR有八成文章做的模型都没法说明白为什么,剩下来偏规则的图形学和底层机器学习的文章凤毛麟角:一来没有库可以调用,实验慢;一来对数学要求很高,因为底层是可解释的,必须解释清楚,这样就难度大。大家都想着两三个月入门顺便投顶会,很难考虑这些方向。NLP更是露骨,直接出了叫EMNLP(基于经验方法的NLP)的顶会。Transformer这种大模型也是NLP先出来的,到现在也没人清楚性能好的理由,更不用提基于Transformer之上的BERT、GPT-2等大语言模型。更让人不安的是,现在大公司都在进行大语言模型(VLSLM)军备竞赛,因为发现模型在某些任务上的性能已经超越了人类(如PaLM),文章中已经几乎不提模型原理了。
科学上资源的聚集效应带来了不均衡。底层投入少,通用人工智能(AGI)也鲜有发展。关注CV和NLP的同学肯定很苦恼,每天公众号都被小打小闹淹没,看不到知其所以然的任何推理。这导致深度学习的入门门槛越来越浅,下至本科生,甚至高中生都能发表顶会(特别是CV这边,本科就有几篇CVPR的人不在少数)。审稿水平也值得质疑,各种水平不等的论文都能够被接收,而绝大多数都是在缝合模型刷点或者提出并没有太大意义的benchmark,更有甚者为了增加出版量一个模型套几个任务全部中了顶会,却没有一套完整的理论体系进行支持。缺乏深度的研究如果成为了学界主流,这个学科就会出现泡沫。一份出色的科学工作,应当从知识入手,讲清楚模型为什么能够实现这么好的性能;而且解释不能停留在应用层,要下化到神经层。上看网络结构和任务的匹配度,下看网络结构的数学特征,把黑箱一层一层拆开来。今年CVPR 2022的Best Paper就有这种世外桃源的感觉,是一个好的兆头;但是还是那个问题,大方向不对,总体还是走在老路上。
另外,很多其实很有实力的学生,因为过早进入某个深度学习的分支,缺乏对整个深度学习方向的理解,逐渐丧失了对深度学习的想象力,看上去成果颇丰,在真正问一些问题insights的时候却基本答不上来。这种同学非常让人可惜,本质还是在资本的浪潮下随波逐流。如吴恩达所说,深度学习是一门基于经验的学科,高度决定亮度。这里的“经验”不是说一上来就去做很多项目、打怪获得经验——没个三五年基础知识的积淀是没法内化经验的。大部分项目都停留在应用的高度,很多人连聚类都不懂,上来一通神经网络算法,性能不错,但没有本质上能力的提升。一个真正有意义的项目,是在不断的实验中诞生的,能够进行各种算法的比较,例如观察基于梯度的方法和基于隐变量的方法在同一批数据上的不同行为,通过这种不断的实验和比较才能使自己的建模能力和应用能力得到质的提升。这才是吴恩达说的“有深度的深度学习”。注意,黑箱虽然意味着入门门槛浅,但并不意味着每个人对黑箱的理解是一致的。换句话说,黑箱学科确实门槛低,但是不意味着上限低,只能说明入门后的实质提升难,并且由于深入研究困难容易达到学科饱和。事实证明,对于底层理解更透彻的学者更有提升学科上限,并创造性研究的可能。深度学习三大图灵奖得主之一Hinton曾说,启发式算法虽然无法被证明是最好的,但是如果不明白它为什么比另一个规则方法或启发方法好,那么对它的应用是苍白的。梯度方法就是典型的启发式算法之一。
总结一下,科学这边:黑箱浓度太高,学习门槛太低,研究功利心强。
现在大家思考一下为什么科学这边很少有人做原理的探究——因为没有资本。为什么功利心强?因为有资本
根据调查,深度学习这一块学界的主体是硕博。大部分文章都是硕博在做,博后和教授都在当PR。其中,硕士80%奔向产业界,20%深造为博士;博士70%奔向产业界,30%深造为博士后(数据来自实验室教授的统计)。换句话说,整个深度学习社区由于追求快速产出,对领域有深刻认知的巨佬们并不直接参与项目的开发,导致社区低龄化。低龄化社区的最大问题是学术的利益性增强,因为硕博以后是要去业界的,研究方向很大程度上受资本影响。又因为资本的短期逐利性,整个社区的研究方向也会变得短视。资本往对话系统去,大家就去做对话系统;资本往目标检测去,大家就去做目标检测。什么方向好就业,什么方向薪资高,就往什么方向做,想着多几段这个方向的经历总不是坏事。
这种短期逐利行为带来的最大问题就是领域整体的投入不能获得应有的深度。这并不是说领域没有发展,领域确实发展的很好,特别是在应用上。但是精英人才都被用在了学科应用上,几乎无人深入探究梯度方法背后的原理。现在大部分项目都只需要调库,会点PyTorch就可以完成大多数应用。加之Copilot这样的自动写代码软件横空出世,不出几年,整个行业高地就会被几乎不理解底层原理的程序员占领。这就是为什么现在学校里一些杂七杂八专业的本科生,甚至高中生都能够进入这个领域,做项目也能做的风生水起。说的难听点,这些基本上都是缺乏积淀的低水平项目。门槛低已经成为了程序员和深度学习研究领域的代名词,“深度学习缺乏深度”也已经是学界业界公认的事实。加之资本的短期逐利性,整个学界已经呈现出疲态。
因此,在这里,笔者留下对各位深度学习从业者,以及投资人的建议。

  • 深度学习的大方向并没有问题,基于梯度的学习算法是一个非常solid的启发式算法,拥有很强的生命力,在现在以及将来都会持续展示其能力。从业者需要继续努力,投资人需要保持信心。
  • 深度学习展现出的黑箱性质使得深度学习逐渐趋于饱和。即使基于梯度的方法带来了很好的效果,并没有研究(包括梯度提出人Yann LeCun)能够指出深层模型的运作机理,整个行业成为经验行业,缺乏统一性。
  • 由于资本的短期逐利效应,加之深度学习社区的逐渐低龄化、泛学科化,单纯以深度学习的应用作为竞争力的从业者将很快被淘汰,单纯面向深度学习的资本也会很快成为泡沫。
  • 从业者如果希望自己保持竞争力,需要尽量多学习底层数学原理,不要急于求成进行实验。很多数学底子好的从业者因为急功近利,并没有系统地学习底层数学,过早投入学界业界,导致后劲不足,大有“伤仲永”的人在。特别是本科和硕士阶段,要将做项目的时间抽离出来多放到底层原理的学习,这可以帮助从业者形成对于黑箱的原理解读,极大提升从业者能力上限。要提升能力,不要盯着ArXiv、顶会文章一顿读,先去读经典。
  • 投资人不要认为深度学习有什么魔法,有点水平的程序员很轻松就能写出优雅的深度学习代码。不要被深度学习的表象迷惑,要看公司是如何运用深度学习的,是如何将深度学习和实际产业结合的,关键在于可落地性。要深刻意识到深度学习的黑箱性质,尽量把资本投向有深度的公司和项目,而不是刚创业就喊着颠覆业界的upstart们。这种刚创业就自命不凡的团队,大部分都是刚从公司和高校走出来的萌新,完全不懂知识落地的难度。

神父C LV

发表于 2025-4-7 17:06:57

作为金融前从业人员说一句,其实泡沫是个金融概念,比如O2O泡沫,VR泡沫等等。而例如理论数学理论物理就无论发展多好也不会有泡沫,因为从来就没人投资(感叹)。
所以判断是不是泡沫,不是看学科的发展如何,而是看学科的资金流入。当投资者听到"人工智能"就摇头的时候,泡沫就破灭了。
在这个意义上人工智能有些危险,因为现在变现似乎是个难题。资本永远是逐利而短视的,如果只有好玩的结果,没有能快速变成足够多钱的结果,不久这个游戏就会无以为继。
如何尽可能地把成果真正变现,或者让投资者更清晰地看到变现的道路,而不是画饼,这确实是AI从业人员此时需要更多思考的问题。
首先刷ImageNet当然不能变现。人脸识别的空间也不大(国内有很多人脸识别的startup,因为够简单够成熟,然而壁垒和盈利能力如何,大家心里清楚。是的,现在有投资者养着,但以后呢。是的,可以卖给安防公司,但这是当初描述的远大前景吗)。只有自动驾驶是稍微靠谱一点的,然后可能到医疗和基因工程,至于语音助手还很远。自然语言识别好像就只能做炒股机器人了,而翻译怎么变现请告诉我(评论里有朋友还奇怪怎么不能变现,您这个变现不是VC想要的变现)。说起来现在有一个深度学习真正变现了的领域,就是广告和推荐,但所有需要这个的公司都成立了自己的团队,没有创业的窗口。在模型共享化的今天,许多方面的技术壁垒已经被无限降低,许多所谓AI创业公司都只是拿公开的模型来调而已(然后向投资者大吹技术实力)。
很直接地说:目前看来,AI可能并不足以支撑一个独立的公司,它更适合作为其它公司的一个部门,或被其它公司收购。如果你做社交APP,做电商,做游戏,做生物,做材料,都可以自己活下去。但做AI,就会有难度。如果你幻想技术授权,或SaaS,你可能最终难免会失望。理想很美好,现实很骨感。
资本很没耐心,之前的波士顿动力大狗机器人看上去是不是也超酷,最后还是要被Google挂牌出售(感叹)。前几年许多公司狂招DL人才,怕的是lagging behind,但后来就有点有苦说不出了,因为人太多了,不需要这么多。我调查了一圈,发现Nvidia的股价可能都虚高了,因为大家甚至不需要那么多显卡来训练!看来只能看NVDA能不能开拓好自动驾驶市场(2018.8 更新:NVDA 还是很猛的,不过 AMD 其实也挺有前途,现在 AI 芯片创业也全面开花了)。
这有时令人想起生物。所有人都知道生物的前景光明,前途无量,必将改变人类的命运,生物的世纪必有一天会到来,生物已经有无数的应用,无数的盈利模式,而且生物还在日新月异地发展,时不时搞个大新闻。这么看来生物真的很好啊!但是现在有多少人往生物跳呢?继“生物民工”之后,会不会出现“调参民工”(什么?调一层十元钱?)?生物的今天是不是人工智能的明天?(补充:可能90后00后的同学不知道,那时有句话叫"21世纪是生物的世纪",后来令无数人懊悔不已)(2018.8 更新:现在 AutoML 也渐渐成熟了,调参可以逐渐脱离人类了)

这一波人工智能泡沫将会怎么破灭?-1.jpg

在各位PhD同学和startup工程师陶醉于人工智能的美好未来之时,请警惕生物的前车之鉴。生物现在依旧是热门的创业领域之一,只是大家更加理性,因为已经吃过了泡沫的亏。目前DL之所以这么热,很重要的原因是因为DL的几位领军人物很聪明,在很有意地试图引导资本(尤其是现在大家都来找国内资本,因为国内资本更多更笨),但资本不会被忽悠太久。
最后说一个我发现的规律,这是一个令人忧伤的故事,就是如果学数学物理的同学都开始涌进某个行业,这个行业就必然会出现泡沫的严重化和最终的破灭,就像从前做金融衍生品,后来做APP,等等等等。哎,俺们学基础科学的就是惨,哈哈。
===========
看到评论好像还是有同学没明白,最后补充一句:这里的问题在于和生物的情况太像了,都是要研究很多年才能实用化。生物一个小领域活两三家公司更没有问题,基因就可以活n家公司。自动驾驶重要,还是治疗疾病重要?我觉得治疗疾病一点也不差吧。识别准确率进步10%重要,还是癌症5年生存率进步10%重要?好像不能说生物就低一等吧。但是学生物的同学肯定就很郁闷了:凭什么AI现在就这么热呢?这时我要说,生物也曾经热过嘛,大家都有这个过程。
泡沫破灭了之后,也并不是说就没有人研究,没有人投资,没有人创业了,而是回归理性,成为公司的一个正常部门(比较遗憾的是薪水和就业可能不会像现在这样好了),而不是一个投资概念,一个炒作题材。就像360老周说的实在:“今天再出来做一个公司,你要不说自己是用深度学习、人工智能,你都不好意思出来混。就跟前两年,你要不说自己是O2O,都不好意思去融资一样,我觉得这个有泡沫的成分。”
===========
上面的答案写于2017.2,现在是2018.8,涌现了无数新研究,美股连创新高,没人知道泡沫会持续到何时。不过AI方面最热的仍然是自动驾驶,最成熟的仍然是图像,最能变现的仍然是广告和推荐,AI之路还是任重道远啊。
我认为DL应该更普及化,最近我也写了一本深度学习的入门书,欢迎关注~

这一波人工智能泡沫将会怎么破灭?-2.jpg

请看我在知乎的更多回答,只输出干货:
PENG Bo:我在知乎的回答&文章整理:AI/编程/金融/八卦篇PENG Bo:我在知乎的回答&文章整理:数学/物理篇PENG Bo:我在知乎的回答&文章整理:文/艺/音/生活篇

wuchao LV

发表于 2025-4-7 17:18:48

细数一下2000年以后的学术浪潮: 2003年LDA topic model刚出来的时候,火的不行,按我师兄的话说,整个实验室都在坑此坑次热火朝天的搞topic model,恨不得每篇文章里面都建一个Graphical model加一些隐变量进去,那时候的盛况我是无缘得见了。。2004年MapReduce论文刚出来,以及后来MapReduce的开源实现Hadoop出现,算是掀起了新的一波数据热,各个领域各种问题都能扯上大数据三个字,一个传统算法只要用MapReduce框架改写一下就可以发篇文章;2010年Spark 出来之后Hadoop在学术界就不怎么能看到了,简单来说是因为Hadoop不能支持在线计算;2010年左右深度学习出来了之后,在很多应用上效果完爆topic model,现在在NLP领域内的会议里topic model的文章已经没有以前那么多了。。
泡沫之所以会破,是因为人们找到了更大更漂亮的泡沫,一样技术被取代也是因为人们发现了比他更牛逼更有前景的技术。但从目前来看,深度学习在语音识别,图像,NLP等很多领域的效果都非常好,训练时间和模型复杂度也还在可接受的范围内,并没有出现其他可以相提并论的技术,所以我觉得深度学习在很长一段时间内都还会在学术界火下去。而通常工业界的普及要比学术界的工作晚个5-10年以上,相信深度学习在未来一段时间里都还会频繁出现在大家的日常生活里。
更新:
最后贴一个最新的Deep Learning创业公司汇总贴,包括Computer Vision, Natural Language, Vertical-Specific等方向,有些公司还蛮有意思的,推荐看看:
Deep Learning Startups, Applications and Acquisitions

您需要登录后才可以回帖 登录 | 立即注册