首页
搜索 搜索

今日科创板行情快报(2023年6月28日)

亚汇网     2023-06-28 10:35:36

X 关闭

AIGC究竟会不会让人“丢饭碗” 最新调查:大多数高层欲雇用更多人


(资料图)

随着ChatGPT火爆全球,类似“生成式人工智能(AIGC)这样的工具即将取代各个行业的工人”这样的警告声铺天盖地。根据高盛(Goldman Sachs)最近的一份报告,全球多达3亿个工作岗位可能受到影响。

但事实证明,许多高管有其他计划。就业平台Upwork对1400名美国商界领袖进行的一项新研究显示,64%的高管表示,由于人工智能的出现,他们将雇佣更多的员工。

Upwork研究所董事总经理Kelly Monahan表示:“考虑到我们所看到的潜在失业方面的悲观情绪,我认为这有点令人惊讶。事实证明,高管层认为这(AIGC)是一种增强手段,是一种帮助员工提高工作效率的方式,而不是裁员的借口。”

以下是专家认为AIGC不会在短期内取代数百万工人的原因:

你不可能把整个工作都自动化。

首先,尽管ChatGPT和Microsoft 365 Copilot等工具的功能非常强大,但它们在填补许多角色方面的能力仍然有限。

Monahan说:“就算有了这个工具,你也无法真正实现整个工作或任务的自动化。你可以将其中的一部分自动化,或者作为其中的一部分加速劳动力的效率。例如,ChatGPT可以帮助人力资源工作者写一份报告,但它不能评估求职者在公司的文化契合度。”

招聘网站ZipRecruiter的首席经济学家Julia Pollak表示,虽然这些工具目前可以“提高个体工人的生产率”,但最终还是无法完全取代他们。

新工作包括人工智能艺术家、人工智能研究人员、深度学习工程师。

随着许多公司的领导层意识到这些工具可以让员工更有效地工作,许多行业都在为那些知道如何使用这些工具的人创造就业机会。Upwork创造了以人工智能为重点的新职位,包括商业和专业服务、软件和技术、媒体和电信以及金融服务。

Monahan说:“目前在我们的平台上,我们看到的实际具体工作是人工智能艺术家、人工智能研究人员、深度学习工程师、人工智能聊天机器人开发人员、人工智能作家。”

招聘网站上对人工智能相关职位的需求也在增加。Pollak举例说,人工智能工程师的需求量很大。她说,“报纸正在雇佣能够想出办法利用生成式人工智能创造大量内容的作家。广告商正在寻找能够找到使用这些工具的方法的人。”

不过,虽然劳动力市场历史上的这一特殊时刻正在引入大量新工作,但专家们认为,没有人确切知道未来会发生什么。

Pollak说:“在未来的某个时候,(生成式人工智能工具)可能会减少工作岗位,取代工人。”

“但通常情况下,像这样非常具有颠覆性的技术会带来巨大的生产力和效率提升,并以我们甚至无法想象的方式极大地改变工作方式。这些创造了新的角色、新的机会、新的产品和新的市场,这些都是以前不存在的。”她补充说。

英伟达H100霸榜权威AI性能测试 11分钟搞定基于GPT-3的大模型训练

当地时间周二,机器学习及人工智能领域开放产业联盟MLCommons披露两项MLPerf基准评测的最新数据,其中英伟达H100芯片组在人工智能算力表现的测试中,刷新了所有组别的纪录,也是唯一一个能够跑完所有测试的硬件平台。

MLPerf是由学术界、实验室和产业组成的人工智能领袖联盟,是目前国际公认的权威AI性能评测基准。Training v3.0包含8种不同的负载,包括视觉(影像分类、生物医学影像分割、两种负载的物体侦测)、语言(语音识别、大语言模型、自然语言处理)和推荐系统。简单来说,就是由不同的设备供应商提交完成基准任务所需要的时间。

在投资者比较关注的“大语言模型”训练测试中,英伟达和GPU云算力平台CoreWeave提交的数据为这项测试设定了残酷的业界标准。在896个英特尔至强8462Y+处理器和3584个英伟达H100芯片的齐心协力下,仅仅花了10.94分钟就完成了基于GPT-3的大语言模型训练任务。

除了英伟达外,只有英特尔的产品组合在这个项目上获得评测数据。由96个至强8380处理器和96个Habana Gaudi2 AI芯片构建的系统中,完成同样测试的时间为311.94分钟。横向对比,使用768个H100芯片的平台跑完这个测试也只需要45.6分钟。

对于这个结果,英特尔也表示仍有上升空间。理论上只要堆更多的芯片,运算的结果自然会更快。英特尔AI产品高级主管Jordan Plawner对媒体表示,接下来Habana的运算结果将会呈现1.5倍-2倍的提升。Plawner拒绝透露Habana Gaudi2的具体售价,仅表示业界需要第二家厂商提供AI训练芯片,而MLPerf的数据显示英特尔有能力填补这个需求。

而在中国投资者更熟悉的BERT-Large模型训练中,英伟达和CoreWeave将数据刷到了极端的0.13分钟,在64卡的情况下,测试数据也达到了0.89分钟。BERT模型中的Transformer结构正是目前主流大模型的基础架构。

X 关闭

热讯工业网版权所有

备案号:豫ICP备20005723号-6邮箱:29 59 11 57 8@qq.com