ChatGPT 词汇表:每个人都应该知道的 41 个 AI 术语
文章来源于CNET,作者为Imad Khan,由城市光网编译
人工智能在数字网络空间中的抽象渲染。
MR.Core_Photographer via Getty Images
来自OpenAI的AI聊天机器人ChatGPT具有回答任何问题的不可思议的能力,可能是您第一次接触AI。从写诗、简历和融合食谱,ChatGPT 的强大功能已被比作类固醇的自动完成。
但这只是人工智能领域的一部分。当然,让 ChatGPT 帮你做功课,或者让 Midjourney 根据原产国创建迷人的机甲图像很酷,但它的潜力可能会彻底重塑经济。根据麦肯锡全球研究所的数据,这种潜力每年对全球经济的价值可能达到4.4万亿美元,这就是为什么你应该期待听到越来越多的关于人工智能的信息。
随着人们越来越习惯于与人工智能交织在一起的世界,新术语随处可见。因此,无论您是想在喝酒时听起来很聪明,还是想在求职面试中给人留下深刻印象,这里都有一些重要的人工智能术语你应该知道。
本词汇表将不断更新。
—
通用人工智能(AGI):这个概念表明了比我们今天所知道的更先进的人工智能版本,它可以比人类更好地执行任务,同时还可以教授和提高自己的能力。
人工智能伦理:旨在防止人工智能伤害人类的原则,通过确定人工智能系统应如何收集数据或处理偏见等手段实现。
人工智能安全:一个跨学科领域,关注人工智能的长期影响,以及它如何突然发展成为可能对人类怀有敌意的超级智能。
算法:一系列指令,允许计算机程序以特定方式学习和分析数据,例如识别模式,然后从中学习并自行完成任务。
对齐:调整 AI 以更好地产生预期结果。这可以指从审核内容到保持与人类的积极互动的任何内容。
拟人化:当人类倾向于赋予非人类物体类似人类的特征时。在人工智能中,这可能包括相信聊天机器人比实际更像人类和意识,就像相信它是快乐的、悲伤的,甚至是完全有知觉的。
人工智能或AI:在计算机程序或机器人技术中使用技术来模拟人类智能。计算机科学领域的一个领域,旨在构建可以执行人类任务的系统。
偏见:对于大型语言模型,训练数据导致的误差。这可能导致根据刻板印象错误地将某些特征归因于某些种族或群体。
聊天机器人:通过模拟人类语言的文本与人类交流的程序。
ChatGPT:由OpenAI开发的AI聊天机器人,使用大型语言模型技术。
认知计算:人工智能的另一个术语。
数据增强:重新混合现有数据或添加更多样化的数据集来训练 AI。
深度学习:人工智能的一种方法,也是机器学习的一个子领域,它使用多个参数来识别图片、声音和文本中的复杂模式。该过程受到人脑的启发,并使用人工神经网络来创建模式。
扩散:一种机器学习方法,它获取现有数据(如照片)并添加随机噪声。扩散模型训练他们的网络重新设计或恢复该照片。
紧急行为:当 AI 模型表现出意想不到的能力时。
端到端学习或 E2E:一种深度学习过程,其中指示模型从头到尾执行任务。它不是按顺序完成任务的训练,而是从输入中学习并立即解决所有问题。
道德考虑:了解人工智能的伦理影响以及与隐私、数据使用、公平性、滥用和其他安全问题相关的问题。
Foom:也称为快速起飞或硬起飞。如果有人建立一个AGI,那么拯救人类可能已经为时已晚。
生成对抗网络或 GAN:由两个神经网络组成的生成 AI 模型,用于生成新数据:生成器和鉴别器。生成器创建新内容,鉴别器检查其是否真实。
生成式 AI:一种内容生成技术,使用 AI 创建文本、视频、计算机代码或图像。人工智能被输入大量的训练数据,找到模式来生成自己的新反应,这些反应有时可能类似于源材料。
Google Bard:谷歌的一个人工智能聊天机器人,其功能类似于ChatGPT,但从当前网络中提取信息,而ChatGPT仅限于数据,直到2021年,并且没有连接到互联网。
护栏:对 AI 模型施加的策略和限制,以确保负责任地处理数据,并且模型不会创建令人不安的内容。
幻觉:来自AI的错误反应。可以包括生成 AI 生成不正确的答案,但自信地陈述,就好像正确一样。其原因尚不完全清楚。例如,当问人工智能聊天机器人“达芬奇什么时候画蒙娜丽莎的?”它可能会回答一个不正确的陈述,说“达芬奇在1815年画了蒙娜丽莎”,这是它实际画的300年后。
大型语言模型或LLM:一种在大量文本数据上训练的AI模型,用于理解语言并以类似人类的语言生成新颖的内容。
机器学习或ML:人工智能中的一个组件,允许计算机在没有显式编程的情况下学习并做出更好的预测结果。可以与训练集结合使用以生成新内容。
Microsoft Bing:Microsoft的搜索引擎,现在可以使用支持ChatGPT的技术来提供AI驱动的搜索结果。它类似于连接到互联网的谷歌吟游诗人。
多模态AI:一种可以处理多种类型输入的 AI,包括文本、图像、视频和语音。
自然语言处理:人工智能的一个分支,它使用机器学习和深度学习,使计算机能够理解人类语言,通常使用学习算法、统计模型和语言规则。
神经网络:一种类似于人脑结构的计算模型,旨在识别数据中的模式。由互连的节点或神经元组成,可以识别模式并随着时间的推移而学习。
过拟合:机器学习中的错误,它的功能与训练数据过于接近,可能只能识别所述数据中的特定示例,而不能识别新数据。
参数:赋予LLM结构和行为的数值,使其能够进行预测。
提示链接:AI 使用来自先前交互的信息为未来的响应着色的能力。
随机鹦鹉:LLM的类比,说明无论输出听起来多么令人信服,软件对语言或周围世界背后的含义都没有更大的理解。这句话指的是鹦鹉如何在不理解人类单词背后的含义的情况下模仿人类单词。
风格转移:使一个图像的样式适应另一个图像的内容的能力,允许AI解释一个图像的视觉属性并将其用于另一个图像。例如,以伦勃朗的自画像,以毕加索的风格重新创作。
温度:用于控制语言模型输出的随机程度而设置的参数。较高的温度意味着模型承担更多风险。
文本到图像生成:根据文本描述创建图像。
训练数据:用于帮助 AI 模型学习的数据集,包括文本、图像、代码或数据。
转换器模型:一种神经网络架构和深度学习模型,通过跟踪数据中的关系(如句子或图像的一部分)来学习上下文。因此,它不是一次分析一个单词的句子,而是可以查看整个句子并理解上下文。
图灵测试:以著名数学家和计算机科学家艾伦·图灵的名字命名,它测试机器的行为能力。如果一个人无法将机器的反应与另一个人区分开来,机器就会通过。
弱AI,又名狭义AI:专注于特定任务并且无法超越其技能集学习的AI。今天的大多数人工智能都是弱人工智能。
零镜头学习:一种测试,其中模型必须在不提供必要的训练数据的情况下完成任务。一个例子是识别狮子,同时只接受老虎训练。









