沃卡惠移动端logo

沃卡惠  技术前沿

资讯详情

什么是生成人工智能 (AI)?

2023-02-02 09:02:444636

去年被证明是技术形成的一年。企业越来越多地接触到不同形式和自动化的应用——从机器学习到自然语言处理(NLP)——同时现在还必须考虑道德和法律影响。整个企业都在进行对话,系统现在足以自动化一些核心后台功能。

然而,最令人兴奋的发展之一是以生成人工智能(AI)的形式出现,它因ChatGPT和DALL·E 2等而闻名。创造力的名称。生成式AI可以生成图像和文字,甚至可以模仿人类的声音,引发了围绕伦理影响以及AI是否有可能取代人类核心创造性功能的广泛讨论。不过,这在很大程度上取决于现有的特定工具,以及产品的质量以及人们是否愿意注意潜在的缺点。

什么是生成人工智能 (AI)?

生成式人工智能的起源是什么?

尽管生成式人工智能在去年随着MidJourney等技术的广泛使用而流行起来,但围绕这项技术的讨论已经持续了更长时间。早在2012年,荷兰研究人员就撰写了有关生成式人工智能的哲学基础的文章。不到三年前,Indium Software也发布了一份白皮书,其中强调了生成式人工智能不仅可以如何创造性地使用,而且还强调了高摩擦工作场所,如卫生保健。

对于许多人来说,这是创造力和技术的自然演变。这些功能倾向于演变成引擎,这些引擎可以吸引我们现在看到的那种吸引力,这种想法是这样的。这不仅适用于那些高度沉浸在IT或企业世界中的人,也适用于对这个以前不透明的过程感到好奇的普通社交媒体用户。凭借这项技术的发展势头,最近Grand View Research的研究结果显示,到2030年,生成人工智能市场将接近1090亿美元(约合914亿英镑)也就不足为奇了。

生成式人工智能是如何工作的?

生成AI是一个可以采用几种形式的过程,但其核心意味着使用神经网络等工具——以生成对抗网络(GAN)、转换器、变分自动编码器和扩散模型的形式来获取输入的创意数据并吐出新的创作。我们在这里广泛使用创意一词,不仅指您的朋友试图用最少的资源来提升他们的图形设计游戏,还指商业环境中可用的创新用途。

与试图对信息进行分类的AI形式相反,生成AI依赖于试图理解数据集结构并生成可能相关或匹配的示例的建模。这里发挥作用的两种主要神经网络形式——GAN和Transformer——工作方式略有不同。总的来说,前者涉及从图像和文本创建视觉和多媒体内容,而后者则使用互联网上的信息生成文本输出。

生成人工智能的一些例子是什么?

现在有一系列由神经网络提供支持的工具,从Midjourney和DALL·E 2等基于图像的工具到GPT-3和LaMDA等基于文本的系统,以及即将推出的GPT-4。还有微软开发的VALL-E,这是一个用来生成语音的工具。

除了尝试制作圣诞贺卡之外,Open AI的DALL·E 2和ChatGPT等工具还被用来探索它们对其他创意工作的影响。使用Lensa AI在社交媒体上增加了人工智能生成的个人资料图片,而YouTube用户已经尝试使用GPT-3等工具为流媒体服务生成视频内容。例如,Corridor Digital反复探索生成式人工智能如何通过模仿特效来扰乱视频制作。

生成式人工智能有什么好处?

生成式AI如此受欢迎的部分原因在于其引人注目的输出、易用性和创造奇迹的能力。也许有人正在寻找AI辅助版本的拼贴画来激发他们的创作过程,或者他们可能对AI模型对辞职信有何建议感到好奇。对于那些在2023年寻求新挑战的人来说,他们可能会依靠机器来更好地宣传自己的技能和能力。有些人可能只是想知道如果他们最喜欢的两位艺术家合作会发生什么。

Indium Software在更实用且道德上更不可疑的层面上建议,生成人工智能可用于医疗保健领域,使图像更有用。与此同时,自动化公司Fireflies ai建议生成式人工智能可以有效地用于大规模物流规划和机场身份验证等方面。尽管如此,这些用例中的每一个都会产生比其解决的问题更多的问题。毫无疑问,为这些工具提供动力和使用它们将涉及大量数据——那么这些数据将存储在哪里呢?敏感用例还存在隐私问题和网络安全问题。

围绕生成式AI的主要担忧是什么?

已经被广泛讨论的生成人工智能的一个风险是有可能加剧deepfakes的兴起。这些图像或视频的创建方式是逼真地模仿一个人,通常是名人,但也可能是杰出的商业领袖,以这种方式可以欺骗他人。

人们普遍担心技术进步会使这种威胁变得非常复杂,尤其是在生成人工智能可以被武器化的方式上。例如,实时deepfakes现在正成为更严重的威胁。像微软的VALL-E这样的工具——一种人工智能驱动的系统,只需三秒的输入音频就可以模仿人类的声音——可能会引发网络犯罪的新时代。

最近出现了关于在代码中使用AI助手工具如何带来重大安全风险的报告。高度重视创造力的生成式人工智能可能会带来类似的问题。有很多这样的例子,有人向MidJourney这样的工具输入了提示,然后在角落里看到了一个扭曲的版权标志。这些工具并不是特别挑剔,MidJourney首席执行官David Holz向Fobes承认,他们的产品所训练的作品并没有征求艺术家的许可。

另一个问题与教育有关。各级教师——从早年学习到行业认证——都担心ChatGPT和GPT-4等未来迭代会影响资格的获得方式。如果你用谷歌搜索“AI剽窃追踪器”,你可能会得到与你对工具本身的预期一样多的结果。有些人认为作弊一直是可能的,手头工具的数量和质量无关紧要,但随着情况的不断发展,这种担忧仍然值得注意。

虽然人们很容易将生成式人工智能视为一种恶毒的力量,但考虑到它在创意产业和经济的各个部分造成的早期混乱,这并不意味着它不能被驯服并用于生产用例。也就是说,有很多问题需要首先解决,监管是目前的热门话题。例如,人工智能权利法案是在美国起草的,作为塑造未来监管的框架。毫无疑问,任何未来的AI法规都将旨在围绕生成AI的使用制定一套规则和规定,以确保它以尽可能少的危害带来最大程度的利益。