AI技术总览

为了方便大家对AI和大模型技术有更加深入的了解,接下来一段时间会开一个专题,专门用来介绍AI和大模型相关技术,专题介绍内容从以下AI技术总览展开。
AI技术定义:

缩写名描述备注
Go-zerogo-zero是一个集成了各种工程实践的web和rpc框架。通过弹性设计保障了大并发服务端的稳定性,经受了充分的实战检验。go-zero 包含极简的 API 定义和生成工具 goctl。
CRDCustomResourceDefinition,在 Kubernetes 中一切都可视为资源,Kubernetes 1.7 之后增加了对 CRD 自定义资源二次开发能力来扩展 Kubernetes API,通过 CRD 我们可以向 Kubernetes API 中增加新资源类型,而不需要修改 Kubernetes 源码来创建自定义的 API server,该功能大大提高了 Kubernetes 的扩展能力
Controller在Kubernetes中用于管理和自动化Kubernetes资源的组件。controller控制器用于确保Kubernetes中的资源处于所需的状态,例如deployment controller用于确保Deployment中定义的Pod数量与所需的Pod数量匹配。controller还可以作为资源监视器,并针对资源变化进行相应处理。
OperatorOperator是Kubernetes 自定义控制器,它使用自定义资源定义(CRD)来扩展Kubernetes API,以便管理应用程序和服务。Operator可以自动化部署、配置和管理应用程序和服务,以便更好地适应特定的业务需求。operator = crd + controller + webhook(其中controller与webhook可以为同一个服务,这也是业界普遍做法)
LLMLarge Language Model,称大规模语言模型或者大型语言模型,是一种基于大量数据训练的统计语言模型,可用于生成和翻译文本和其他内容,以及执行其他自然语言处理任务(NLP),通常基于深度神经网络构建,包含数百亿以上参数,使用自监督学习方法通过大量无标注文本进行训练
ChatGLMChatGLM是由清华技术成果转化的公司智谱AI发布的开源的、支持中英双语问答的对话语言模型系列,并针对中文进行了优化,该模型基于General Language Model(GLM)架构构建
LLaMALarge Language Model Meta AI,由Meta AI公司于2023年2月发布的开放且高效的大型基础语言模型系列,共有7B、13B、33B、65B四种版本
BaichuanBaichuan系列模型是由百川智能开发的开源可商用的大规模预训练语言模型系列,基于Transformer结构,支持中英双语
ptpre-training,预训练是大语言模型训练的基本步骤,预训练阶段需要利用海量的训练数据,包括互联网网页、维基百科、书籍、GitHub、论文等,构建包含数千亿甚至数万亿单词的基础语料,利用由数千块高性能GPU和高速网络组成的超级计算机,花费数十天完成深度神经网络参数训练
sftSupervised Fine-Tuning,有监督微调,也称为指令微调(Instruction Tuning),利用少量高质量数据集合,包含用户输入的提示词(Prompt)和对应的理想输出结果,使用与预训练阶段相同的语言模型训练算法,在基础语言模型基础上再进行训练。
LoRALow-Rank Adaption of Large Language Models,大语言模型的低秩适应,是一种PEFT(参数高效性微调方法),其核心思想是对大型模型的权重矩阵进行隐式的低秩转换
Checkpoint模型在训练过程中的中间状态和结果,是大语言模型在训练过程中进行容错的一种关键技术,通过将中间状态和结果作为checkpoint保存到持久化存储,在训练任务由于异常失败时,可以从checkpoint中恢复训练中间状态继续训练
DeepSpeedDeepSpeed是一个由微软开发的开源深度学习优化库,基于pytorch构建,旨在提高大规模模型训练的效率和可扩展性。它通过多种技术手段来加速训练,包括模型并行化、梯度累积、动态精度缩放、本地模式混合精度等。DeepSpeed还提供了一些辅助工具,如分布式训练管理、内存优化和模型压缩等,以帮助开发者更好地管理和优化大规模深度学习训练任务。
quantize模型量化,又称为模型压缩,是指以较低的推理精度损失将连续取值(通常为float32或者大量可能的离散值)的浮点型权重近似为有限多个离散值(通常为int8或int4)的过程。通过以更少的位数表示浮点数据,模型量化可以减少模型尺寸,进而减少在推理时的内存消耗,并且在一些低精度运算较快的处理器上可以增加推理速度。
watermark模型水印是一种用于模型版权保护的技术,通过向大模型植入水印(触发集数据加上特定的噪声或者标志),使得模型学习到这种特定的噪声或者标志的特征,通过特定的问题可以从大模型的回答中提取出水印进行验证。
Seldon CoreSeldon Core 目前是机器学习模型部署领域最受欢迎的方案之一,由 Seldon 公司开源和维护,旨在为不同框架下训练出来的模型(Tensorflow,Pytorch,SKLearn,XGBoost)提供一套相对统一的部署方式,支持多种不同类型模型的Inference Server。
TGIText Generation Inference,是Huggingface推出的用于部署和服务大型语言模型 (LLM) 的工具包, 支持各种主流LLM,如Llama、Falcon、StarCoder、BLOOM、GPT-NeoX 等;集成了多种推理加速技术,如张量并行、连续批处理、量化、算子优化等等,并且支持模型水印技术,是目前较为流行的高性能推理框架之一
vLLMvLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace Transformers高24倍的吞吐量。
Paged AttentionPagedAttention是大模型推理的一项优化技术,灵感来自于操作系统中虚拟内存和分页的经典思想,它允许在非连续空间内存储连续的KV张量,把每个序列的KV缓存进行了分块,每个块包含固定长度的token,而在计算attention时可以高效地找到并获取那些块。
Continuous Batching动态批推理,是大模型推理框架进行性能优化的关键技术,通过将多个在线请求进行批处理(Batching),可以提高 GPU 的使用效率
1. 起源与发展

早期发展

  • 1943年:Warren McCulloch 和 Walter Pitts 提出了第一个数学模型,用于描述神经元的工作原理。
  • 1958年:Frank Rosenblatt 提出了感知器模型,这是第一个能够学习的神经网络模型。
  • 1969年:Marvin Minsky 和 Seymour Papert 在《Perceptrons》中指出单层感知器的局限性,导致神经网络研究的停滞。

现代发展

  • 1986年:David Rumelhart、Geoffrey Hinton 和 Ronald Williams 提出了反向传播算法(Backpropagation),重新激发了对神经网络的研究兴趣。
  • 2006年:Geoffrey Hinton 等人提出了深度信念网络(Deep Belief Networks),标志着深度学习的兴起。
  • 2012年:AlexNet 在 ImageNet 图像识别竞赛中取得了显著的成功,推动了深度学习的发展。
2. 主要技术

神经网络

  • 定义:神经网络是一种模拟人脑神经元连接和工作方式的计算模型,由多个神经元(节点)组成,这些神经元通过连接(权重)相互连接。
  • 工作原理:包括前向传播、损失函数、反向传播和权重更新等过程。

深度学习

  • 定义:深度学习是机器学习的一个子领域,基于人工神经网络,特别是深度神经网络(DNN),来模拟人脑的工作方式进行数据处理和模式识别。
  • 主要模型:卷积神经网络(CNN)、循环神经网络(RNN)、生成对抗网络(GAN)、自编码器(Autoencoder)、变分自编码器(VAE)、Transformer 等。

生成式AI

  • 定义:生成式AI是指通过机器学习模型生成新的数据或内容的人工智能技术。
  • 应用场景:文本生成(文生文)、多模态生成(图像生成、音频生成、视频生成等)。

Transformer

  • 定义:Transformer 是一种基于自注意力机制的深度学习模型,广泛应用于自然语言处理(NLP)任务。
  • 架构:包括编码器(Encoder)和解码器(Decoder)两部分,每部分由多个相同的层堆叠而成。

Prompt

  • 定义:Prompt 是输入给生成式AI模型的一段文本,用于引导模型生成特定的输出。
  • 作用:通过设计合适的 Prompt,可以控制生成内容的主题、风格、格式等,提高生成内容的质量和相关性。
3. 应用场景

自然语言处理(NLP)

  • 文本生成:生成高质量的文本内容,如文章、故事、新闻报道等。
  • 机器翻译:将一种语言的文本翻译成另一种语言。
  • 文本摘要:生成文本摘要,提取长文档的关键信息。
  • 情感分析:分析文本的情感倾向,生成情感分析报告。

计算机视觉

  • 图像识别:识别图像中的物体、场景、人物等。
  • 图像生成:生成高质量的图像内容,如艺术作品、照片、插图等。
  • 图像修复:修复损坏的图像,填补缺失的部分。
  • 图像描述生成:根据图像生成描述性文本。

语音识别

  • 语音转文字:将语音转换为文字。
  • 语音合成:生成自然的语音内容。
  • 语音识别:识别语音中的内容和情感。

自动驾驶

  • 目标检测:检测道路上的车辆、行人、交通标志等。
  • 路径规划:规划车辆的行驶路径。
  • 行为预测:预测其他车辆和行人的行为。

推荐系统

  • 内容推荐:根据用户的兴趣和行为生成个性化的内容推荐。
  • 商品推荐:根据用户的购买历史和偏好生成个性化的商品推荐。
  • 广告推荐:根据用户的兴趣和行为生成个性化的广告推荐。

医疗健康

  • 药物生成:生成新的药物分子,帮助药物研发人员快速发现和优化药物。
  • 诊断生成:生成诊断方案,帮助医生快速诊断和治疗疾病。
  • 治疗生成:生成治疗方案,帮助医生优化治疗方案,提高治疗效果。

教育培训

  • 学习内容生成:生成个性化的学习内容,如课件、习题、考试等。
  • 教学方案生成:生成个性化的教学方案,帮助教师优化教学方案。
  • 学习评估生成:生成个性化的学习评估,如测验、考试、评估报告等。
4. 常见大模型

LLaMA2

  • 定义和来源:LLaMA2 是 LLaMA(Large Language Model Meta AI)的第二代模型,由 Meta(前身为 Facebook)开发。
  • 功能特点:改进的架构、高效训练、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:高效训练、多任务学习、适应性强;需要大量计算资源和数据进行训练。

LLaMA3

  • 定义和来源:LLaMA3 是 LLaMA 系列的第三代模型。
  • 功能特点:更深的网络结构、高效推理、多模态支持。
  • 擅长场景:自然语言处理、多模态生成、内容生成。
  • 优缺点:高效推理、多模态支持、适应性强;需要大量计算资源和数据进行训练。

BLOOM

  • 定义和来源:BLOOM 是一个开源的大型语言模型,由 BigScience 团队开发。
  • 功能特点:开源、多语言支持、社区驱动。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:开源、多语言支持、社区驱动;性能可能不如一些专有模型。

BERT

  • 定义和来源:BERT(Bidirectional Encoder Representations from Transformers)是由 Google 开发的预训练语言模型。
  • 功能特点:双向编码、预训练和微调、高效。
  • 擅长场景:自然语言处理、信息检索、对话系统。
  • 优缺点:双向编码、高效、适应性强;需要大量计算资源和数据进行预训练。

Falcon 180B

  • 定义和来源:Falcon 180B 是一个大规模的语言模型,具有 1800 亿参数。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。

Mistral 7B

  • 定义和来源:Mistral 7B 是一个具有 70 亿参数的语言模型。
  • 功能特点:高效、多任务学习、灵活性。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:高效、多任务学习、灵活性强;需要大量计算资源和数据进行训练。

OpenHermes

  • 定义和来源:OpenHermes 是一个开源的大型语言模型。
  • 功能特点:开源、多语言支持、社区驱动。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:开源、多语言支持、社区驱动;性能可能不如一些专有模型。

GPT-NeoX-20B

  • 定义和来源:GPT-NeoX-20B 是一个具有 200 亿参数的语言模型,由 EleutherAI 开发。
  • 功能特点:大规模参数、开源、高性能。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、开源、高性能;需要大量计算资源和数据进行训练。

Pythia

  • 定义和来源:Pythia 是一个开源的大型语言模型。
  • 功能特点:开源、多语言支持、社区驱动。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:开源、多语言支持、社区驱动;性能可能不如一些专有模型。

OpenLLaMA

  • 定义和来源:OpenLLaMA 是一个开源的大型语言模型。
  • 功能特点:开源、多语言支持、社区驱动。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:开源、多语言支持、社区驱动;性能可能不如一些专有模型。

OlMA

  • 定义和来源:OlMA 是一个开源的大型语言模型。
  • 功能特点:开源、多语言支持、社区驱动。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:开源、多语言支持、社区驱动;性能可能不如一些专有模型。

GPT-4 系列

  • 定义和来源:GPT-4 系列是 OpenAI 开发的第四代生成预训练变换器(GPT)模型。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。

Claude-3

  • 定义和来源:Claude-3 是一个大规模的语言模型。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。

GLM-4

  • 定义和来源:GLM-4 是一个大规模的语言模型。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。

文心一言

  • 定义和来源:文心一言 是百度开发的一个大规模语言模型,专为中文自然语言处理任务设计。
  • 功能特点:中文支持、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:中文支持、高性能、多任务学习;需要大量计算资源和数据进行训练。

通义千问

  • 定义和来源:通义千问 是阿里巴巴开发的一个大规模语言模型,专为中文自然语言处理任务设计。
  • 功能特点:中文支持、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:中文支持、高性能、多任务学习;需要大量计算资源和数据进行训练。

Abad6

  • 定义和来源:Abad6 是一个大规模的语言模型。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。

qwen

  • 定义和来源:qwen 是一个大规模的语言模型。
  • 功能特点:大规模参数、高性能、多任务学习。
  • 擅长场景:自然语言处理、对话系统、内容生成。
  • 优缺点:大规模参数、高性能、多任务学习;需要大量计算资源和数据进行训练。
5. 硬件支持

GPU硬件组网

  • 定义:GPU硬件组网是指在多GPU系统中,通过高效的互联技术将多个GPU连接在一起,以实现高性能计算和数据处理。
  • 组网技术:PCIe、NVLink、Infinity Fabric、RDMA、NVSwitch 等。
  • 组网架构:单机多GPU架构、多机多GPU架构、GPU集群架构。
  • 应用场景:深度学习训练、科学计算、高性能计算(HPC)等。

卡间互联

  • 定义:卡间互联是指在多GPU系统中,不同GPU之间进行数据传输和通信的技术。
  • 重要性:数据传输速度、计算效率、扩展性。
  • 技术:PCIe、NVLink、Infinity Fabric、RDMA、NVSwitch 等。

总结

人工智能技术已经成为现代科技发展的重要驱动力,广泛应用于自然语言处理、计算机视觉、语音识别、自动驾驶等领域。AI技术的发展经历了早期的神经网络研究、现代的深度学习兴起以及生成式AI的广泛应用。常见的大模型如 LLaMA2、LLaMA3、BLOOM、BERT、Falcon 180B、Mistral 7B、OpenHermes、GPT-NeoX-20B、Pythia、OpenLLaMA、OlMA、GPT-4 系列、Claude-3、GLM-4、文心一言、通义千问、Abad6、qwen 等在各个领域表现出色,推动了人工智能的发展和应用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/889127.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

平台数据分类与聚类实验报告

参考书籍:《数据流挖掘与在线学习算法》 李志杰 1.6.1 实验目的 本书内容以及课程实验主要涉及Java程序设计语言、数据挖掘工具Weka和数据流机器学习平台MOA,因此,需要安装、配置并熟悉实验环境。Java、Weka和MOA都是开源小软件&#xff0…

SpringBoot在线教育平台:设计与实现的深度解析

2相关技术 2.1 MYSQL数据库 MySQL是一个真正的多用户、多线程SQL数据库服务器。 是基于SQL的客户/服务器模式的关系数据库管理系统,它的有点有有功能强大、使用简单、管理方便、安全可靠性高、运行速度快、多线程、跨平台性、完全网络化、稳定性等,非常…

SQL进阶技巧:Order by 中 NULLS LAST特性使用?

目录 1 需求描述 2 数据准备 3 问题分析 4 小结 如果觉得本文对你有帮助,想进一步学习SQL语言这门艺术的,那么不妨也可以选择去看看我的博客专栏 ,部分内容如下: 数字化建设通关指南 专栏 原价99,现在活动价59…

ElasticSearch学习笔记(三)Ubuntu 2204 server elasticsearch集群配置

如果你只是学习elasticsearch的增、删、改、查等相关操作,那么在windows上安装一个ES就可以了。但是你如果想在你的生产环境中使用Elasticsearch提供的强大的功能,那么还是建议你使用Linux操作系统。 本文以在Ubuntu 2204 server中安装elasticsearch 8.…

MATLAB智能优化算法-学习笔记(4)——灰狼优化算法求解旅行商问题【过程+代码】

灰狼优化算法(Grey Wolf Optimizer, GWO)是一种基于灰狼社会行为的元启发式算法,主要模拟灰狼群体的捕猎行为(包括围攻、追捕、搜寻猎物等过程)。多旅行商问题(Multi-Traveling Salesman Problem, mTSP)是旅行商问题(TSP)的扩展,它涉及多个旅行商(车辆)从一个起点城…

使用AI编码,这些安全风险你真的了解吗?

前言 随着AI技术的飞速发展与普及,企业开发人员对AI编码助手工具如Copilot的依赖度日益增强,使用AI编码助手工具虽然能显著提升编程效率与质量,但同时也存在一系列的潜在风险。 许多开发人员可能未意识到,如果他们的现有代码库中…

CMSIS-RTOS V2封装层专题视频,一期视频将常用配置和用法梳理清楚,适用于RTX5和FreeRTOS(2024-09-28)

【前言】 本期视频就一个任务,通过ARM官方的CMSIS RTOS文档,将常用配置和用法给大家梳理清楚。 对于初次使用CMSIS-RTOS的用户来说,通过梳理官方文档,可以系统的了解各种用法,方便大家再进一步的自学或者应用&#x…

数据结构——七种排序(java)实现

文章目录 直接插入排序希尔排序选择排序冒泡排序快速排序归并排序计数排序 直接插入排序 思想: /*** 直接插入排序* 具有稳定性* 时间复杂度为:(计算时间复杂度的时候应计算执行次数最多的语句类,在直接插入排序中次数最多的语句…

Ajax ( 是什么、URL、axios、HTTP、快速收集表单 )Day01

AJAX 一、Ajax是什么1.1名词解释1.1.1 服务器1.1.2 同步与异步1. 同步(Synchronous)2. 异步(Asynchronous)3. 异步 vs 同步 场景4. 异步在 Web 开发中的常见应用: 1.2 URL 统一资源定位符1.2.1 URL - 查询参数1.2.2 ax…

maven打包常用命令

跳过tset打包 mvn package -Dmaven.test.skiptrue

什么是 ARP 欺骗和缓存中毒攻击?

如果您熟悉蒙面歌王,您就会明白蒙面歌王的概念:有人伪装成别人。然后,当面具掉下来时,您会大吃一惊,知道了这位名人是谁。类似的事情也发生在 ARP 欺骗攻击中,只是令人惊讶的是,威胁行为者利用他…

获取期货股票历史数据以及均线策略分析

【数据获取】银河金融数据库(yinhedata.com)能够获取国内外金融股票、期货历史行情数据,包含各分钟级别。 【搭建策略】均线策略作为一种广泛应用于股票、期货等市场的技术分析方法,凭借其简单易懂、操作性强等特点,深…

AI绘画Stable Diffusion WebUI 2个超好用的办法-实现图片光照调节,快速生成你想要的光感大片!

大家好,我是画画的小强 在摄影艺术中,灯光的运用对于照片的质量和情感表达至关重要。它不仅能够彰显主题,还能为画面增添深度与立体感,帮助传递感情,以及凸显细节之美。 下面,我将向大家展示如何用AI绘画…

【动态规划-最长公共子序列(LCS)】【hard】【科大讯飞笔试最后一题】力扣115. 不同的子序列

给你两个字符串 s 和 t ,统计并返回在 s 的 子序列 中 t 出现的个数,结果需要对 10^9 7 取模。 示例 1: 输入:s “rabbbit”, t “rabbit” 输出:3 解释: 如下所示, 有 3 种可以从 s 中得到 “rabbit”…

kafka创建多个分区时,分区会自动分配到多个不同的broker

1.分区只有一个时所有的消息生产和消费都集中在单个Broker上,多个broker只是提高了抗风险能力(因为副本存在不同的broker上,主节点挂掉,可以重新选取副本为主节点)。 2.没有消息顺序性要求可以多个分区,注意…

SpringBoot使用esayExcel根据模板导出excel

1、依赖 <dependency><groupId>com.alibaba</groupId><artifactId>easyexcel</artifactId><version>3.1.3</version></dependency> 2、模板 3、实体类 package com.skybird.iot.addons.productionManagement.qualityTesting…

获取期货股票分钟级别数据以及均线策略

【数据获取】 银河金融数据库&#xff08;yinhedata.com&#xff09; 能够获取国内外金融股票、期货历史行情数据&#xff0c;包含各分钟级别。 【搭建策略】 均线策略作为一种广泛应用于股票、期货等市场的技术分析方法&#xff0c;凭借其简单易懂、操作性强等特点&#xf…

怎么高效对接SaaS平台数据?

SaaS平台数据对接是指将一个或多个SaaS平台中的数据集成到其他应用或平台中的过程。在当前的数字化时代&#xff0c;企业越来越倾向于使用SaaS平台来管理他们的业务和数据。然而&#xff0c;这些数据通常散布在不同的SaaS平台中&#xff0c;这对于企业数据的整合和分析来说可能…

Centos Stream 9备份与恢复、实体小主机安装PVE系统、PVE安装Centos Stream 9

最近折腾小主机&#xff0c;搭建项目环境&#xff0c;记录相关步骤 数据无价&#xff0c;丢失难复 1. Centos Stream 9备份与恢复 1.1 系统备份 root权限用户执行进入根目录&#xff1a; cd /第一种方式备份命令&#xff1a; tar cvpzf backup.tgz / --exclude/proc --exclu…

04-SpringBootWeb案例(中)

3. 员工管理 完成了部门管理的功能开发之后&#xff0c;我们进入到下一环节员工管理功能的开发。 基于以上原型&#xff0c;我们可以把员工管理功能分为&#xff1a; 分页查询&#xff08;今天完成&#xff09;带条件的分页查询&#xff08;今天完成&#xff09;删除员工&am…