近日,网络上上出现了一个颇有争议性的问题,提问者怀疑深度学习的低门槛会破坏这个领域的声誉。业余者的加入甚至会成为深度学习成长的障碍,因为他们会轻率地将自己不成熟的知识和观念传播出去,最终会影响到业界对深度学习的认同。
对此大家从各方面进行了讨论,这里笔者整理了3个知乎上大家认同比较多的回答,分享给大家:
Giant的回答:
链接:
https://www.zhihu.com/question/321031804/answer/1969027036
来源:知乎
深度学习门槛“变低”应该是从18年前后开始的,Google、OpenAI等巨头们为我们造好了轮子,使得广大普通科研爱好者可以站在巨人的肩膀上,一目千里。
以自然语言处理领域的殿堂级模型 BERT 为例,虽然包含了12层Transformer网络,1.1亿参数量,但借助 huggingface 开源的 transformers 库,普通深度学习用户使用 BERT 瞬间轻松加愉快:
from transformers import BertTokenizer, BertModel
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased")
inputs = tokenizer("Hello world!")
outputs = model(**inputs)
-
熟悉最基本的深度学习框架(pyTorch, Keras, TF等)和IDE(pycharm, VSCode, Jupyter等),并具备 debug 错误排查能力;
-
熟悉至少一门主流编程语言,数据资源稀缺时可能还要通过爬虫去抓取语料;
-
能手撕前向/反向传播,熟悉微积分中的链式法则求导;例如给一个两层的MLP和简单的二维向量,能推导出 forward propagation,再用 chain rule 推导出 back propagation;
-
了解常见的损失函数,激活函数和优化算法,明白它们各自的区别优劣,例如 relu 相比 sigmoid 的优点在哪,Adam对于SGD做了哪些改进;
-
对一些经典的论文和方法了如指掌,最好能给刚入行的同学讲解清楚(这样才算是真懂了),例如做NLP,如果会调包却不知道 BERT 三个嵌入层分别是什么、Transformer 有哪些核心模块,肯定要被 pass;
-
遍地开花不如单点突破,精通自己的研究领域;知道领域内SOTA方法是什么,有哪些算法设计理念、数据集、应用场景等,精通一个领域可以提高自己的不可替代性,胜过蜻蜓点水什么都会一点却样样不精的人;
-
加分项:名校背景,paper,比赛SOTA,独角兽/大厂实习经验,发明专利等,可以为你的简历锦上添花,更快从简历池中脱颖而出。
总的来看,深度学习门槛看似降低了,却对入行的从业人员提出了更高的专业要求,优胜劣汰的自然法则在几乎任何一个领域都是适用的。
链接:
https://www.zhihu.com/question/321031804/answer/1981721866
来源:知乎
我们回顾过去几十年技术发展的历史,会发现这么一个趋势:技术门槛在不断降低,从业人员逐渐增多。
首先讲讲硬件。
电脑的门槛从最初,到现在,硬件无论是设计还是使用,都门槛变低了。
在过去,组装电脑是非常专业的事情,使用起来也是需要一定的专业技能。而随着集成电路的发明,微处理器的发展,1975年家酿计算机俱乐部的诞生,使得组装个人电脑门槛降低;随着苹果成立,发布apple II,连使用门槛也降低了。
a = 1+2
而在汇编里,是这么写的
mov ax,1 ;将1送入AX寄存器 AX=1
mov ah,2 ;将2送入AH AH=2
add ax,ah ;将寄存器AX中的数值加上AH的结果存入AX中 AX=AX+AH
在高级语言里,你是这么写hello world的
print("hello world")
在汇编里,你是这么写hello world的
assume cs:code,ds:datas
datas segment
str db 'helloWorld!','$'
datas ends
code segment
mov ax,datas
mov ds,ax
lea dx,str ; 获取str的偏移地址
mov ah,9 ; 调用9号功能输出字符串
int 21h
mov ah,4ch
int 21h
code ends
end
-
学术路:吃透现有框架,提出新的框架。这条路的确现在确实有点卷了,但依然还是给有研究条件的人(大公司,大学)留了足够的机会。 -
工程路:技术落地。更多的关注一个技术可以应用在什么领域,在哪些地方可以落地。如果你已经在某个领域做算法工程师了,那就吃透业务,提出新想法。
所以总结下:一门技术,降低门槛,的确会造成从业者增加的情况,但我们也应该注意到,市场规模也在增大,但市场规模增速比从业者增速快,就不用担心内卷。根据IDC发布的中国人工智能软件及应用(2020上半年)跟踪》报告显示,2020年上半年中国人工智能软件及应用市场规模达15.3亿美元,相比2019年上半年同比增长32.5%。顺便一说,这份报告里也提到了AI技术落地带来的机会。所以,就目前来说,深度学习门槛低了 ,其实能给大家机会。
链接:
https://www.zhihu.com/question/321031804/answer/1331269931
来源:知乎
-
首先,这些课程中有很多都利用TensorFlow或Keras之类的框架来实现神经网络和诸如梯度下降之类的优化算法。我想,如果尝试仅通过NumPy或SciPy实现这些,我们还是觉得容易吗?再杠一点,如果不用库呢? -
许多课程着重于对数学的“直观”理解,而不是实际的核心知识。我曾经也在朋友推荐下看过吴恩达(Andrew Ng)著名的ML课程,该课程在许多情况下都显示了多个方程式的含义,而不是描述它们的推导方式,如果想要明白完整推导过程是需要自己亲自思考的,但很多人却不去做,这更使得DL看起来“容易”。(PS:此处绝无抹黑吴恩达老师的意思) -
最后,很多人通常无法理解良好的数据集在深度学习和机器学习中的重要性。这意味着我们将需要花费大量的时间来获取,清理和表示或编码数据。特征方面既要积累专业知识又要花费大量时间去尝试选择,还是很不容易的。如果一直在使用来自在线存储库的准备好的数据集来实现神经网络,那么就可以理解为什么所有这些对DL学习者来说似乎都很“容易”的。培训建立适当的数据集的工作量很多时候起码要占一份完整工作的50%。而提出并理解这些结构背后的内容则更加困难。我们需要对概率论,信息论,微积分等有充分的了解,才能掌握其主要思想,而这些工作很多人一开始根本却就没有接触过orz
(注:文章内容均源自知乎,侵删)
关于二范数智能:二范数AI教育是一家新锐的AI+科创公司,团队主要来自阿里巴巴,成员毕业于华科、武大、东南大学等知名高校。我们在自然语言处理、计算机视觉、推荐系统等领域有深厚的技术积累,同时也具备多年的教育经验。AI培训,我们是最专业的!
欢迎大家通过下面联系方式联系我们:
原文始发于微信公众号(二范数智能):据说,深度学习门槛已经很低了?