轰动全球!国内“天才少年”独自发Nature!在AI芯片设计领域一战封神!

人工智能赋能芯片设计(AI for Chip)是集成电路与人工智能交叉领域的前沿方向,核心是依托人工智能技术破解传统芯片设计全流程的核心痛点,推动芯片设计产业向高效化、自动化、智能化升级。传统芯片设计从前端RTL代码编写、逻辑综合,到中端布局布线、物理验证,再到后端仿真测试、良率优化,各环节均依赖资深工程师大量人工介入,存在研发周期长、试错成本高、性能优化瓶颈明显、算力需求激增等问题,已难以适配高端芯片(如AI芯片、量子芯片)的复杂设计需求。
随着深度学习、强化学习、生成式AI、大模型等技术的迭代突破,人工智能与芯片设计全流程实现深度融合,形成了颠覆性的设计模式:生成式AI可自动生成符合需求的RTL代码,大幅降低前端设计门槛;强化学习可实现芯片布局布线的智能优化,平衡面积、功耗、时序三大核心指标;深度学习可用于芯片仿真加速、缺陷检测、良率预测,将原本需要数天甚至数周的仿真流程压缩至小时级,同时提升优化精度。
当前,全球芯片巨头与科技企业均全力布局AI for Chip赛道,聚焦技术突破与产业落地,AI赋能已成为芯片设计产业升级的必由之路,也是集成电路领域人才需求的核心方向。本课程紧扣这一前沿趋势,打破人工智能与芯片设计的学科壁垒,聚焦产业实际需求,系统讲解AI技术在芯片设计各环节的应用原理、实操方法与前沿案例,培养适配行业发展的复合型交叉人才。

课程一、人工智能赋能芯片设计
课程二、AI赋能射频技术
课程三、人工智能技术助力天线仿真与设计(可点击文字查看)
课程四、深度学习助力材料疲劳与断裂应用研究(可点击文字查看)
课程一、人工智能赋能芯片设计


专题概述

本专题系统介绍人工智能技术在芯片设计全流程中的应用,涵盖从设计自动化、性能优化、缺陷预测到硬件加速器设计等核心领域。通过理论讲解与实战项目相结合,帮助学员掌握AI驱动的现代芯片设计方法论,深入理解大型语言模型、图神经网络、强化学习等前沿技术在EDA工具链中的实际应用。
课程周期:5天(共30小时)
每日安排:上午2.5小时 + 下午3.5小时
授课方式:理论讲解 + 代码实操 + 项目实战 + 技术创新点加持

课程目标



知识层面,学员将系统掌握人工智能与芯片设计交叉领域的核心理论,深入理解机器学习、深度学习、图神经网络(GNN)、强化学习、大型语言模型(LLM)等前沿AI方法的原理,以及这些技术在EDA工具链与集成电路设计全流程中的应用机理;全面了解芯片前端RTL设计、功能验证,后端布局布线、时序功耗优化、物理设计,以及缺陷预测、良率提升等环节的AI驱动解决方案,同时熟悉深度学习加速器、存算一体、神经形态、光子芯片等新型计算芯片的AI辅助设计方法与行业发展趋势,构建“AI+芯片”的完整知识体系。
能力层面,学员将具备独立搭建AI开发环境、处理芯片设计相关数据、实现经典机器学习与深度学习模型的工程能力;能够运用深度学习、图神经网络完成芯片性能预测、IR降压预测、缺陷检测、时序分析等实际任务,掌握基于大模型的RTL代码自动生成、验证与修复技术,具备构建领域专用LLM应用系统的基本能力;同时能够使用强化学习与优化算法进行布局布线多目标优化,实现面积、功耗、时延等指标的联合优化,掌握从深度学习模型到硬件加速器的映射、设计、实现与评估流程,具备FPGA/ASIC原型开发能力,并能独立完成端到端AI芯片设计综合项目,形成完整的设计、报告与成果展示能力。
工程创新与职业应用层面,学员将建立“AI+芯片”融合的工程思维,能够将AI方法与传统芯片设计流程有机结合,提升设计效率与芯片质量,培养利用数据驱动与智能算法解决芯片设计复杂问题的创新意识,具备设计AI辅助EDA工具的初步能力;理解芯片设计中可解释性、鲁棒性与可信AI的核心要求,形成规范、严谨、面向流片的工程素养;同时面向芯片设计、EDA工具开发、AI算法、硬件架构等相关岗位,提升交叉领域核心竞争力,能够在企业与科研院所中独立承担相关项目,具备方案设计、技术落地与问题排查能力,建立对产业现状、技术瓶颈与未来方向的整体认知,为后续深造、科研选题与职业发展奠定坚实基础。
人工智能赋能芯片设计大纲

第一天:AI算法基础与芯片设计数据驱动方法
上午(2.5小时)理论讲解 + 代码实操 + 项目实战 + 技术创新点加持
1. AI开发环境配置与工具链搭建
· Python环境配置:Anaconda/Miniconda安装与虚拟环境管理
· 深度学习框架安装:PyTorch、TensorFlow环境配置
· GPU加速配置:CUDA、cuDNN安装与验证
· 开发工具配置:Jupyter Notebook、VS Code、Git版本控制
· 依赖库安装:NumPy、Pandas、Matplotlib、Scikit-learn等
💻 实操内容:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 搭建完整的AI开发环境
· 验证GPU加速是否正常工作
· 运行第一个深度学习示例程序
📖 课程内容详解:
本节将带领学员从零开始搭建完整的AI开发环境。首先介绍Python在芯片设计中的重要性,Python作为胶水语言可以连接各种EDA工具和AI框架。通过Anaconda创建独立的虚拟环境,避免不同项目之间的依赖冲突。
基于Python的芯片验证框架:介绍一个开源的Python验证框架,它允许使用Python编写测试用例来验证RTL设计。该框架支持与主流仿真器(如ModelSim、VCS)集成,提供了丰富的验证原语和断言机制。学员将学习如何使用Python编写测试台,进行功能验证和覆盖率分析。这种方法相比传统的SystemVerilog验证,具有更灵活的语法和丰富的Python生态支持。
芯片设计小工具集:介绍一套轻量级的芯片设计辅助工具,包括电路仿真、波形分析、网表处理等功能。这些工具采用Web界面,方便团队协作和远程访问。学员将学习如何使用这些工具进行快速原型验证和设计探索。
GPU加速配置部分将详细讲解CUDA和cuDNN的安装步骤,以及如何验证GPU是否正常工作。通过简单的矩阵运算对比CPU和GPU的性能差异,让学员直观感受GPU加速的威力。

2. 机器学习基础算法原理与实践
· 监督学习基础:线性回归、逻辑回归、决策树
· 集成学习方法:随机森林、梯度提升树(GBDT、XGBoost)
· 支持向量机(SVM):核函数、软间隔、多分类策略
· 模型评估:交叉验证、混淆矩阵、ROC曲线、AUC指标
· 特征工程:特征选择、特征缩放、特征编码
🌟 芯片设计应用亮点:
理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 缺陷预测:在流片前预测芯片设计中的潜在缺陷,节省数百万美元成本
· 良率优化:通过历史数据预测芯片良率,指导工艺参数调整
· 设计规则检查:自动识别违反设计规则的模式,加速验证流程
· 可解释性优势:决策树模型可以清晰展示缺陷产生的原因链
💻 实操内容:
· 使用Scikit-learn实现经典机器学习算法
· 在芯片缺陷预测数据集上训练模型
· 对比不同算法的性能表现
· 可视化决策边界与特征重要性
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节从经典机器学习算法入手,为后续深度学习打下基础。首先介绍监督学习的基本概念,通过线性回归预测芯片性能参数(如功耗、时延)的简单案例,让学员理解模型训练的基本流程。
决策树在缺陷预测中的应用:介绍一个完整的芯片设计缺陷预测系统,使用决策树算法分析设计特征与缺陷之间的关系。该系统收集了大量历史设计数据,包括布局密度、时序裕量、功耗分布等特征,以及对应的缺陷标签。通过决策树模型,可以自动学习出缺陷产生的规则,例如"当布局密度>0.8且时序裕量<10ps时,容易出现时序违例"。学员将学习如何构建特征工程流程,处理不平衡数据,以及如何解释决策树的预测结果。
SVM在高维特征空间的应用:介绍支持向量机在芯片设计中的应用,特别是处理高维特征数据。芯片设计往往涉及成百上千个设计参数,SVM通过核函数可以在高维空间中找到最优分类边界。课程将讲解不同核函数(线性、多项式、RBF)的选择策略,以及如何通过网格搜索优化超参数。
随机森林集成学习:介绍随机森林算法在芯片良率预测中的应用。随机森林通过集成多个决策树,可以有效降低过拟合风险,提高预测鲁棒性。

3. 深度学习基础:神经网络原理与实现
· 神经网络基础:感知机、多层感知机(MLP)、反向传播算法
· 激活函数:ReLU、Sigmoid、Tanh、Leaky ReLU
· 损失函数:MSE、交叉熵、Focal Loss
· 优化算法:SGD、Momentum、Adam、AdamW
· 正则化技术:L1/L2正则化、Dropout、Batch Normalization
🌟 芯片设计应用亮点:
理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 多指标联合预测:同时预测面积、功耗、时延等多个关键指标
· 非线性关系建模:捕捉设计参数与性能之间的复杂非线性关系
· 端到端学习:从原始设计数据直接学习到性能预测,无需手工特征工程
· 迁移学习潜力:在一个工艺节点训练的模型可迁移到其他节点
💻 实操内容:
· 使用PyTorch从零实现一个简单的神经网络
· 在MNIST数据集上训练手写数字识别模型
· 可视化训练过程:损失曲线、准确率曲线
· 理解梯度下降与反向传播的工作原理
📖 课程内容详解:
本节深入讲解神经网络的基本原理,从最简单的感知机开始,逐步过渡到多层感知机。通过数学推导和代码实现,让学员理解反向传播算法的工作机制。
神经网络在缺陷预测中的应用:介绍一个基于深度神经网络的芯片缺陷预测系统。相比传统机器学习方法,神经网络可以自动学习特征表示,无需手工设计特征。
加速器芯片设计案例:介绍一个完整的深度学习加速器ASIC设计案例,该芯片专门用于加速MNIST手写数字识别任务。
激活函数部分将详细对比不同激活函数的特点:Sigmoid的饱和问题、ReLU的死神经元问题、Leaky ReLU的改进、以及现代激活函数(如Swish、GELU)的优势。
正则化技术部分将讲解如何防止过拟合:L1/L2正则化通过惩罚大权重来简化模型,Dropout通过随机失活神经元来增强鲁棒性,Batch Normalization通过归一化激活值来加速训练。实操环节将在MNIST数据集上验证这些技术的有效性。

下午(3.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
4. 卷积神经网络(CNN)原理与应用
· CNN基础架构:卷积层、池化层、全连接层
· 经典CNN模型:LeNet、AlexNet、VGG、ResNet
· 卷积操作详解:卷积核、步长、填充、感受野
· 特征提取与可视化:特征图、激活图、卷积核可视化
· CNN在芯片设计中的应用:布局特征提取、IR降压预测

💻 实操内容:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 实现经典CNN模型(如ResNet)
· 在芯片布局图像数据上训练CNN模型
· 可视化CNN学到的特征:边缘、纹理、高级语义
· 对比不同CNN架构的性能与效率
📖 课程内容详解:
本节系统讲解卷积神经网络的原理和应用。首先从卷积操作的数学定义出发,讲解卷积核、步长、填充等概念。通过可视化卷积过程,让学员理解CNN如何提取局部特征。
CNN在芯片布局分析中的应用:介绍多个基于CNN的芯片设计应用。
CNN加速器硬件实现:介绍两个CNN加速器的完整设计案例。
柔性对角循环阵列加速器(发表于Electronics期刊):介绍一种创新的CNN加速器架构,采用柔性对角循环阵列实现高速卷积计算。
经典CNN模型部分将介绍LeNet、AlexNet、VGG、ResNet等里程碑式的模型
实操环节将在真实的芯片布局图像数据上训练CNN模型。

5. 循环神经网络(RNN/LSTM)原理与应用
· RNN基础:循环结构、时序建模、梯度消失问题
· LSTM架构:遗忘门、输入门、输出门、细胞状态
· GRU架构:简化的门控机制
· 序列到序列模型:编码器-解码器架构
· LSTM在芯片设计中的应用:时序性能预测、功耗预测
💻 实操内容:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 实现LSTM模型进行时序数据预测
· 在芯片时序数据上训练LSTM模型
· 对比RNN、LSTM、GRU的性能差异
· 可视化LSTM的门控机制
📖 课程内容详解:
本节深入讲解循环神经网络及其变体。首先介绍RNN的基本结构,通过展开图理解RNN如何处理序列数据。然后分析RNN的梯度消失问题,引出LSTM的解决方案。
LSTM单元的Verilog实现:介绍一个完整的LSTM单元硬件实现,使用Verilog编写并在FPGA上验证。
LSTM模板与HLS实现:介绍使用Vivado HLS进行LSTM加速器设计的完整流程。HLS允许使用C/C++描述算法,自动生成RTL代码,大大提高了设计效率。
基于SVD的LSTM模型压缩(相关研究发表于FPGA会议):介绍一种创新的LSTM模型压缩方法,使用奇异值分解(SVD)将权重矩阵分解为低秩矩阵的乘积,显著降低参数量和计算量。
多LSTM模型的FPGA映射:介绍如何在单个FPGA上同时运行多个LSTM模型,实现模型并行和流水线并行。
实操环节将使用芯片时序数据进行LSTM训练。数据集包含芯片在不同工作条件下的时序违例序列,LSTM模型需要学习时序违例的时间模式,预测未来的违例情况。

6. 图神经网络(GNN)基础与电路表示
· 图的基本概念:节点、边、邻接矩阵、度矩阵
· 图卷积网络(GCN):消息传递机制、聚合函数
· 图注意力网络(GAT):注意力权重、多头注意力
· GraphSAGE:采样与聚合策略
· GNN在电路设计中的应用:电路拓扑表示、性能预测
💻 实操内容:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 使用PyTorch Geometric实现GCN模型
· 将电路网表转换为图结构
· 在电路图数据上训练GNN模型
· 可视化图卷积的消息传递过程

📖 课程内容详解:
本节系统介绍图神经网络及其在电路设计中的应用。首先讲解图的基本概念和表示方法,然后介绍GNN的核心思想:通过消息传递机制聚合邻居节点的信息。
Circuit-GNN:分布式电路设计:介绍一个基于GNN的分布式电路设计框架。
CktGNN:两级GNN架构:介绍一种创新的两级GNN模型,专门用于模拟电路设计。
GNN硬件加速器框架:介绍一个使用HLS生成GNN FPGA加速器的自动化框架。GNN的计算模式(消息传递、聚合)与传统CNN不同,需要专门的硬件架构。
GNN在IC设计安全性中的应用(相关综述发表于顶级会议):介绍GNN在集成电路设计、安全性、可靠性分析中的最新研究进展,实操环节将使用真实的电路网表数据。

7. 注意力机制与Transformer架构
· 注意力机制原理:Query、Key、Value、注意力权重
· 自注意力机制:Self-Attention、Multi-Head Attention
· Transformer架构:编码器、解码器、位置编码
· 预训练语言模型:BERT、GPT架构简介
· Transformer在芯片设计中的应用:代码生成、设计优化
💻 实操内容:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 实现简单的注意力机制
· 理解Transformer的工作原理
· 使用预训练模型进行简单的文本生成任务
· 可视化注意力权重分布
📖 课程内容详解:
本节介绍Transformer架构及其在芯片设计中的应用。首先从注意力机制的动机出发,讲解为什么需要注意力机制来解决RNN的长距离依赖问题。
视觉Transformer加速器协同设计(发表于顶级会议):介绍一个视觉Transformer(ViT)加速器的完整设计案例。ViT将图像分割为patches,通过Transformer编码器提取特征。
可重构注意力加速器:介绍一个专门用于序列到序列网络的可重构硬件加速器。该加速器支持多种注意力机制(如加性注意力、乘性注意力、多头注意力),可以灵活配置以适应不同的模型。课程将讲解可重构架构的设计思想、运行时配置机制、性能与灵活性的权衡等。
神经形态芯片:介绍一种基于脉冲神经网络(SNN)的Transformer实现,用于下一代神经形态芯片设计。SNN使用脉冲进行计算,具有极低的功耗。该研究将Transformer架构与SNN结合,实现了高能效的序列处理。课程将讲解SNN的基本原理、脉冲编码方法、Transformer到SNN的转换技术等。
Transformer架构部分将详细讲解编码器和解码器的结构,包括多头自注意力、前馈网络、残差连接、层归一化等组件。
预训练语言模型部分将简要介绍BERT和GPT的架构差异:BERT使用双向编码器,适合理解任务;GPT使用单向解码器,适合生成任务。
实操环节将实现一个简单的Transformer模型,在机器翻译任务上进行训练。

8. 芯片设计AI应用全景
· AI在芯片设计中的应用全景:设计自动化、性能优化、缺陷预测
· 大型语言模型(LLM)的革命性作用:从代码生成到设计辅助
· 从规则驱动到数据驱动:设计范式的演进
· 当前挑战与未来方向:时序闭合、功耗优化、设计复杂度
· 五天课程路线图预览:每天的核心内容与技能提升
📖 课程内容详解:
本节对AI在芯片设计中的应用进行全景式回顾和展望。
电路基础模型综述(发表于VLSI设计顶级期刊):介绍AI基础模型在VLSI电路设计和EDA中的最新研究进展。

AI芯片综述:介绍人工智能芯片的发展现状和未来趋势。
机器学习在布局布线中的方法论(发表于顶级会议):系统介绍机器学习在芯片布局和布线中的应用方法论。包括问题建模、特征工程、算法选择、性能评估等方面。
生成式AI在EDA中的基准测试:介绍一个全面的基准测试框架,用于评估生成式AI(如GPT、Codex)在EDA工作流程中的性能。
GPT驱动的EDA交互新范式(发表于顶级会议):介绍一种创新的EDA软件交互方式,使用GPT等大型语言模型作为自然语言接口。
AI驱动的多领域芯片设计工具包:介绍一套完整的AI驱动芯片设计工具,支持数字、模拟、光子芯片的自动化设计。
课程最后将展望AI在芯片设计中的未来方向:全自动化设计流程、跨工艺节点的知识迁移、人机协同设计、可解释AI等。

9. 实战项目:芯片设计数据处理与简单预测模型
· 使用Python处理DEF/LEF等芯片设计数据格式
· 构建简单的神经网络模型预测设计参数
· 数据可视化:布局图、特征分布、预测结果
· 模型评估与优化:调参、正则化、集成学习
· 工具链集成与结果可视化分析
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节通过一个完整的实战项目,整合第一天学到的所有知识。
Python实现的布局布线启发式算法:介绍一套完整的Python实现的EDA工具,包括布局算法(如模拟退火、遗传算法)和布线算法(如迷宫算法、A*算法)。
芯片AI助手:介绍一个基于对话的芯片设计助手,可以回答设计相关的问题,提供设计建议。
项目实施步骤:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
1. 数据收集:从开源芯片设计数据集中收集样本,包括设计特征和性能标签
2. 数据预处理:处理缺失值、异常值,进行特征归一化
3. 特征工程:设计新特征,如布局密度、扇入扇出比、关键路径长度等
4. 模型训练:使用第一天学到的算法(决策树、SVM、神经网络)训练模型
5. 模型评估:使用交叉验证评估模型性能,绘制学习曲线
6. 模型优化:调整超参数,尝试集成学习方法
7. 结果可视化:绘制预测值vs真实值散点图,分析误差分布
8. 工具集成:将模型封装为Python包,提供命令行接口
通过这个项目,学员将掌握完整的机器学习项目流程,为后续更复杂的项目打下基础。
______________________________________________________________________
第二天:大模型驱动的RTL代码自动生成与设计验证
上午(2.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
1. RTL代码自动生成的AI方法
· 多代理系统在RTL生成中的协同工作机制
· 代码生成模型的架构设计:编码器-解码器结构
· 从自然语言规范到Verilog代码的端到端转换
· 生成代码的语法检查、功能验证与自动修复
📖 课程内容详解:
本节深入讲解如何使用AI技术自动生成RTL代码,这是芯片设计自动化的核心环节。
MAGE:多代理RTL生成引擎:介绍一个创新的多代理系统,用于自动生成RTL代码。该系统包含多个专门化的代理:规范理解代理(解析自然语言设计规范)、代码生成代理(生成Verilog代码)、验证代理(检查代码正确性)、优化代理(优化代码质量)。
VGen:Verilog大型语言模型:介绍一个专门针对Verilog代码训练的大型语言模型。
Python到Verilog编译器:介绍一个创新的工具,可以将Python代码自动转换为Verilog代码。Python语法简洁,易于快速原型设计,但不能直接综合为硬件。该编译器通过静态分析Python代码,识别可综合的部分,生成等价的Verilog代码。
Verilog聊天机器人:介绍一个基于NLP的Verilog聊天机器人,可以回答Verilog相关的问题。该机器人使用意图识别技术,理解用户的问题类型(如语法查询、设计建议、调试帮助),然后从知识库中检索相关信息,生成回答。实操环节将使用这些工具生成实际的RTL代码。

2. 高质量合成数据的生成技术
· 结构正确的代码合成方法:基于AST的生成
· 非文本表示在代码生成中的优势:图结构与序列结合
· 有针对性的代码修复机制:错误定位与自动纠正
· 数据质量评估指标与反馈循环优化
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节讲解如何生成高质量的合成数据用于训练代码生成模型。高质量的训练数据是模型性能的关键。
结构正确的Verilog代码生成:介绍一个创新的代码生成框架,专注于生成结构正确的Verilog代码。课程将详细讲解:
9. AST表示:如何将Verilog代码解析为AST,AST的节点类型(如模块、端口、always块、赋值语句)
10. 基于AST的生成:如何从AST生成代码,如何保证语法正确性
11. 非文本表示:如何将AST转换为图结构,利用GNN进行代码生成
12. 代码修复机制:如何自动检测和修复常见错误(如未声明变量、类型不匹配、时序逻辑错误)
13. 数据增强:如何通过AST变换生成多样化的训练数据(如变量重命名、代码重构)
学员将学习如何使用该框架生成大规模的高质量Verilog代码数据集,用于训练代码生成模型。
无训练模拟电路代码生成:介绍一种创新的方法,无需训练即可生成模拟电路代码。课程将讲解:
14. 提示工程:如何设计有效的提示模板,引导LLM生成正确的电路代码
15. 领域知识注入:如何将模拟电路知识编码到提示中
16. 代码验证:如何使用SPICE仿真器验证生成代码的正确性
17. 迭代优化:如何根据仿真结果迭代改进代码
这种方法的优势是无需大规模训练数据,可以快速适应新的电路类型。实操环节将使用这些技术生成合成数据。

3. 芯片设计的LLM微调实践
· 领域特定数据集的构建:Verilog代码库的收集与处理
· 指令微调(Instruction Tuning)与强化学习微调(RLHF)
· 模型评估指标:代码正确性、可综合性、性能指标
· 推理优化:量化、剪枝、知识蒸馏在部署中的应用
📖 课程内容详解:
本节讲解如何针对芯片设计领域微调大型语言模型。通用LLM虽然强大,但在专业领域的表现往往不如领域专用模型。
芯片设计领域适配LLM(发表于NeurIPS 2023):介绍NVIDIA研究院开发的芯片设计专用LLM。该模型在通用LLM的基础上,使用芯片设计领域的数据进行持续预训练和微调。课程将详细讲解:
18. 领域数据收集:如何收集芯片设计相关的文本数据(如设计文档、代码注释、技术论文、论坛讨论)
19. 持续预训练:如何在领域数据上继续预训练,注入领域知识
20. 指令微调:如何构建指令数据集(如"生成一个8位加法器"→Verilog代码),进行监督微调
21. 检索增强生成(RAG):如何结合外部知识库,提高生成质量
22. 性能评估:在多个任务上评估模型性能(如代码生成、bug修复、设计问答)
该研究表明,领域适配可以显著提升LLM在芯片设计任务上的表现。
敏捷芯片设计LLM(发表于VTS 2025):介绍一个专门用于敏捷芯片设计的LLM系统。敏捷设计强调快速迭代和持续集成,LLM可以加速设计-验证-优化的循环。课程将讲解:
23. 设计意图理解:如何使用LLM理解设计师的意图,生成初始设计
24. 增量式代码生成:如何根据设计修改增量生成代码
25. 自动化测试生成:如何自动生成测试用例,提高覆盖率
26. 设计优化建议:如何分析设计,提供优化建议

Semikong系列LLM:介绍一系列开源的芯片设计LLM,包括基础版和EDA集成版。这些模型在大规模Verilog代码库上训练,支持多种芯片设计任务。课程将讲解:
27. 模型架构:基于Transformer的架构设计
28. 训练策略:预训练、微调、强化学习的完整流程
29. EDA工具集成:如何将LLM集成到现有EDA工具链中
30. 部署优化:如何进行模型量化、剪枝,降低推理成本
数据增强框架:介绍一个自动化的设计数据增强框架,用于扩充LLM训练数据。该框架可以从少量种子数据生成大量多样化的训练样本。课程将讲解数据增强的各种技术:回译、同义替换、代码重构、规范改写等。
LLM安全性与可信度(相关研究发表于顶级会议):讨论LLM在芯片设计中的安全风险和信任问题。包括:
31. 代码安全性:LLM生成的代码可能包含安全漏洞或后门
32. 知识产权保护:如何防止LLM泄露敏感设计信息
33. 可解释性:如何理解LLM的决策过程
34. 人机协同:如何建立人类设计师与LLM的信任关系
实操环节将微调一个小型LLM模型。学员将使用开源的Verilog代码数据集,实现完整的微调流程:数据预处理、模型加载、训练配置、性能监控、模型评估。通过对比微调前后的性能,理解领域适配的重要性。

下午(3.5小时)
4. 设计验证与测试的AI加速
· 测试用例自动生成:基于覆盖率的智能测试
· 覆盖率预测与优化:减少验证时间的AI方法
· 形式化验证与AI的结合:定理证明的智能辅助
· 缺陷检测的深度学习方法:异常模式识别
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节讲解如何使用AI技术加速芯片设计验证。验证是芯片设计中最耗时的环节,占据整个设计周期的70%以上。
基于Python的芯片验证框架:深入介绍cocotb验证框架的高级应用。课程将讲解:
35. 协程式测试:如何使用Python的async/await语法编写并发测试
36. 约束随机验证:如何生成满足约束的随机测试向量
37. 覆盖率驱动验证:如何定义覆盖点,如何收集覆盖率数据
38. 断言库:如何使用断言检查设计正确性
39. 与AI的结合:如何使用机器学习预测覆盖率,指导测试生成
生成式AI在EDA基准测试中的应用:介绍一个全面的基准测试框架,评估生成式AI在验证任务上的性能。该框架包含多个验证任务:
40. 测试用例生成:给定设计规范,生成测试用例
41. Bug定位:给定失败的测试,定位bug位置
42. Bug修复:给定bug描述,生成修复补丁
43. 回归测试选择:给定设计修改,选择需要重新运行的测试

5. 时序闭合的AI辅助方法
· 时序约束的自动提取与智能优化
· 关键路径识别:图神经网络在时序分析中的应用
· 时序违例的预测与修复:强化学习驱动的优化
· AI驱动的时序闭合完整工作流实践
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节讲解如何使用AI技术解决时序闭合问题。时序闭合是芯片设计中最具挑战性的问题之一,需要在满足时序约束的前提下优化面积和功耗。
Clkwise:AI时序闭合副驾驶:介绍一个创新的AI辅助时序闭合系统。该系统可以:
44. 时序违例预测:在布局阶段预测可能的时序违例,提前采取措施
45. 关键路径分析:使用GNN识别关键路径,分析时序瓶颈
46. 优化建议生成:根据时序分析结果,自动生成优化建议(如调整驱动强度、插入缓冲器、重新布局)
47. 优化效果评估:快速评估优化方案的效果,避免无效迭代
课程将详细讲解该系统的技术细节:
· 时序图表示:如何将时序路径表示为图,节点代表逻辑单元,边代表时延
· GNN时序预测:如何使用GNN预测路径时延,考虑串扰、工艺变化等因素
· 强化学习优化:如何将时序优化建模为强化学习问题,设计状态空间、动作空间、奖励函数
· 人机协同:如何将AI建议呈现给设计师,支持交互式优化
实操环节将使用该系统进行时序优化。
6. 实战项目:构建RTL代码生成系统
· 设计并实现代码生成模型架构
· 集成语法检查与功能验证模块
· 实现代码修复与优化的自动化流程
· 评估生成代码的质量:正确性、可读性、性能
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
本节通过一个完整的实战项目,整合第二天学到的所有知识。项目目标是构建一个端到端的RTL代码生成系统。

通过这个项目,学员将掌握构建实用AI系统的完整方法论,包括需求分析、架构设计、模型选择、系统集成、测试评估等环节。

______________________________________________________________________
第三天:强化学习与图神经网络在布局布线中的应用
上午(2.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
1. 布置布线的AI优化方法
· 强化学习在芯片布局中的应用:状态空间与奖励函数设计
· 决策转换器模型:离线强化学习在布局优化中的优势
· 多目标优化:面积、功耗、时序的联合优化策略
· 布线可预测性:轻量级神经网络的快速预测
📖 课程内容详解:
本节深入讲解如何使用强化学习和深度学习优化芯片布局布线。布局布线是芯片物理设计的核心环节,直接影响芯片的性能、功耗和面积。
6个模型的联合学习框架:介绍一个创新的框架,使用6个不同的AI模型协同解决布局布线问题。这6个模型分别负责:
48. 布局预测模型:预测给定布局的质量指标
49. 布线预测模型:预测布线的拥塞情况
50. 时序预测模型:预测时序性能
51. 功耗预测模型:预测功耗分布
52. 优化策略模型:生成布局优化策略
53. 评估模型:综合评估设计质量
课程将详细讲解:
· 联合训练策略:如何同时训练多个模型,共享表示学习
· 模型协同机制:如何让不同模型协作,形成闭环优化
· 多目标优化:如何平衡面积、功耗、时序等多个目标
· 实验结果:在多个基准电路上的性能对比
分布式强化学习布局框架(发表于Nature 2023):介绍Google开发的革命性芯片布局系统。该系统使用深度强化学习,在数小时内生成接近人类专家水平的布局方案。

该研究表明,AI可以在芯片设计的核心环节达到甚至超越人类专家的水平。
决策转换器布局优化:介绍一种基于Transformer的离线强化学习方法。与在线强化学习不同,离线强化学习从历史数据中学习,无需与环境交互。课程将讲解:
54. 决策转换器架构:如何使用Transformer建模状态-动作-奖励序列
55. 离线数据收集:如何收集高质量的布局轨迹数据
56. 条件生成:如何通过条件生成实现目标导向的布局
57. 可迁移性:如何实现跨芯片的知识迁移
启发式布局布线算法:介绍传统的启发式算法(如模拟退火、遗传算法、粒子群优化),作为AI方法的基准对比。课程将讲解这些算法的原理、实现、优缺点,以及如何与AI方法结合。
轻量级布线预测:介绍一个基于U-Net的轻量级神经网络,用于快速预测布线拥塞。该网络在布局阶段就能预测布线的可行性,避免后续的布线失败。课程将讲解:
58. U-Net架构:编码器-解码器结构,跳跃连接
59. 输入表示:如何将布局信息编码为图像
60. 输出预测:预测每个区域的拥塞程度
61. 轻量化设计:如何降低模型复杂度,实现实时预测
机器学习布局布线方法论(发表于顶级会议):系统介绍机器学习在布局布线中的应用方法论,包括问题建模、特征工程、算法选择、性能评估等。该论文总结了该领域的最佳实践。
实操环节将使用这些方法进行布局优化。学员将选择一个基准电路,使用强化学习训练布局策略,使用U-Net预测布线拥塞,评估优化效果。

2. 图神经网络在电路设计中的深度应用
· 电路图的GNN表示:节点特征与边特征的设计
· 多模态电路表示学习:融合电路拓扑、时序、功耗信息
· 两级GNN架构:子图基底编码与全局信息聚合
· GNN在电路性能预测中的准确性与效率优势
📖 课程内容详解:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
分布式电路设计的图神经网络:详细介绍如何使用GNN进行分布式电路设计。
两级GNN模型:介绍专门用于模拟电路的两级GNN架构。
多模态电路表示学习(发表于顶级会议):介绍一个创新的多模态学习框架,融合电路的多种表示:拓扑图(GNN)、时序信息(LSTM)、布局图像(CNN)。通过多模态融合,可以更全面地理解电路特性,提高预测准确率。
GNN硬件加速器框架:介绍如何使用HLS自动生成GNN的FPGA加速器。。
GNN在IC安全性中的应用(相关综述):介绍GNN在硬件木马检测、侧信道攻击分析、老化效应预测等安全性问题中的应用。

下午(3.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
3-6. 性能预测、IR降压分析、缺陷预测与实战项目
📖 课程内容详解:
静态压降大数据分析:介绍一个高性能的SoC静态压降分析系统。该系统使用深度学习模型,根据芯片特征图(功耗分布、电源网络拓扑)准确预测每个位置的电压降。
深度学习IR降压预测:介绍一个完整的IR降压预测模型,使用卷积神经网络处理芯片布局图像。
注意力U-Net与显著性分析(发表于顶级会议):介绍一个创新的IR降压预测模型,使用注意力机制增强U-Net。
缺陷预测的四种机器学习方法:系统对比决策树、SVM、随机森林、神经网络在芯片缺陷预测中的应用。
芯片设计优化策略模拟器:介绍一个交互式的芯片设计优化模拟器,可以模拟不同优化策略的效果,帮助设计师做出更好的决策。
实战项目:构建芯片性能预测系统:整合第三天所学知识,构建一个多模态的芯片性能预测系统。该系统融合GNN(电路拓扑)、CNN(布局图像)、LSTM(时序信息),实现准确的性能预测。
______________________________________________________________________
第四天:深度学习加速器设计与新型芯片架构实现
上午(2.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
1-3. 深度学习加速器设计、模型到硬件映射、新型芯片架构
📖 课程内容详解:
CNN加速器VLSI设计:介绍一个完整的CNN加速器ASIC设计案例。
CNN的Verilog实现与FPGA综合:介绍如何使用Verilog实现CNN加速器,并在FPGA上进行综合和验证。课程将提供完整的Verilog代码,讲解卷积计算单元、池化单元、激活函数单元的硬件实现。
通用CNN加速器(CNNA):介绍一个可配置的通用CNN加速器,支持多种卷积层配置(不同的卷积核大小、步长、通道数)。

基于OpenCL的CNN FPGA加速器(PipeCNN):介绍如何使用OpenCL进行FPGA加速器设计。
LSTM硬件实现:介绍LSTM单元的Verilog实现、HLS实现、以及基于SVD的模型压缩方法。
视觉Transformer加速器(ViTCoD)(发表于顶级会议):介绍一个创新的ViT加速器,通过算法和硬件的协同设计实现高能效。
可重构注意力加速器:介绍一个灵活的序列到序列网络加速器,支持多种注意力机制。课程将讲解可重构架构的设计、运行时配置等。
柔性对角循环阵列加速器(发表于Electronics):介绍一种创新的CNN加速器架构,通过巧妙的数据复用策略提高能效比。
模型到布局的自动化生成器:介绍一个完整的工具链,可以从深度学习模型自动生成优化的硬件实现,直到布局。
GNN硬件加速器框架:介绍如何使用HLS生成GNN的FPGA加速器。
新型芯片架构:理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
· 光子芯片:介绍百层光子芯片深度学习系统(发表于Nature Communications)、光子神经形态加速器(发表于Nature Photonics)、光谱CNN边缘计算芯片等。
· 神经形态芯片:介绍Spike-Driven Transformer等脉冲神经网络芯片设计。
· 计算内存芯片:介绍ACiM推理仿真框架(发表于顶级会议)、CIMNAS神经架构搜索(发表于顶级会议)、计算内存芯片性能优化等。
· 量子芯片:介绍量子微波芯片的自动化设计与分析工具。

下午(3.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
4-6. 性能优化、FPGA vs ASIC、实战项目
📖 课程内容详解:
片上存储优化:介绍一个创新的片上存储管理系统,通过"幻觉"技术实现大容量片上存储的效果。
FPGA实现案例:详细讲解多个FPGA加速器的实现,包括资源利用率优化、时序优化、功耗优化等技术。
ASIC设计案例:介绍MNIST加速器ASIC设计的完整流程,从算法到流片。
实战项目:设计深度学习加速器原型:学员将选择一个深度学习模型(CNN/LSTM/Transformer),设计完整的加速器架构,使用HLS进行实现,在FPGA上验证,评估性能。
________________________________________________________________________

第五天:端到端AI芯片设计流程与前沿技术探索
上午(2.5小时)理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
1-3. 端到端设计流程、生成式AI、可解释性
📖 课程内容详解:
AI驱动的多领域芯片设计工具包:介绍一套完整的AI驱动芯片设计工具,支持数字、模拟、光子芯片的自动化设计。
统一芯片设计平台(UCDP):介绍两个统一的芯片设计平台,提供一致的设计接口和工具链。
Python芯片设计库:介绍一个强大的Python库,用于设计光子芯片、模拟芯片、量子芯片、MEMS、PCB等。该库提供了丰富的参数化组件库、布局工具、仿真接口等。
生成式AI在EDA中的应用:介绍扩散模型、GAN在芯片设计中的应用,包括设计生成、数据增强、设计优化等。
无训练模拟电路代码生成:深入讲解如何使用预训练LLM生成模拟电路代码。
可解释AI:介绍注意力可视化、显著性分析、特征重要性等技术,提高AI模型的可解释性和可信度。
LLM安全性:讨论LLM在芯片设计中的安全风险和信任问题。

下午(3.5小时)
理论讲解 + 论文算法精读 +代码实操 + 项目实战 + 技术创新点加持
4-6. 多目标优化、前沿方向、综合实战
📖 课程内容详解:
多目标优化:介绍帕累托最优、多目标强化学习、贝叶斯优化等技术。
前沿应用:
· 自动驾驶AI芯片:介绍自动驾驶芯片的设计基线和优化策略。
· 嵌入式芯片:介绍嵌入式系统芯片的检测分割模型。
· MLX Omni Server:介绍苹果M系列芯片的本地推理服务器。
· 微流控芯片:介绍微流控芯片的自动化设计工具。
· 传感器技术:介绍各种传感器设备的技术原理。
综合实战项目:学员将完成一个端到端的AI芯片设计项目,整合五天所学的所有技术。
课程总结
通过五天的学习,学员将:
· 掌握AI算法基础(机器学习、深度学习、强化学习、GNN、Transformer)
· 理解AI在芯片设计各环节的应用(代码生成、布局布线、性能预测、硬件加速)
· 具备构建AI驱动芯片设计工具的能力
· 了解芯片设计领域的前沿研究方向
人工智能赋能芯片设计老师

聚焦人工智能赋能芯片设计领域,主要研究方向包括:生成式AI在芯片前端设计中的应用、强化学习驱动的芯片布局布线优化、深度学习辅助芯片仿真与良率提升、大模型在芯片设计中的微调与落地、AI芯片设计与优化等,长期致力于AI技术与芯片设计全流程的融合创新研究。
教学经验:从事集成电路设计、人工智能交叉领域本科及研究生教学工作8年,主讲人工智能赋能芯片设计、AI与硬件设计等核心课程,教学风格严谨易懂,注重理论与产业实践结合,擅长将复杂的交叉技术拆解为易懂的知识点,多次获评校级“优秀教师”“研究生优秀指导教师”。
产业背景:曾任职某半导体企业芯片设计部门,担任工程师,参与多款高端AI芯片、处理器的设计与优化工作,深刻理解产业界对AI+芯片设计复合型人才的核心需求,课程内容紧密贴合产业实际,可精准对接行业岗位需求。
课程二、AI赋能射频技术


前沿背景


随着 5G/6G 网络、物联网和智能感知技术的快速发展,射频通信系统正面临信道复杂、信号稠密、设计非线性、优化成本高等突出挑战。传统基于专家经验的建模与电路设计方法,在复杂场景下往往效率低、难以推广。与此同时,深度学习与机器学习方法凭借其强大的非线性拟合与模式识别能力,正在逐步渗透到射频研究领域。从射频数据集构建(GNU Radio、NIST、RadioML)、自动调制识别(CNN/CLDNN)、射频指纹识别(RF Fingerprinting)、动态频谱管理(强化学习Gym平台)、AI驱动电路设计(AICircuit、监督学习基准),AI 已成为推动无线通信和电路设计智能化的核心动力。本课程顺应 AI 与射频深度融合的趋势,系统呈现从算法、数据到工程应用的完整知识链条。
课程概述

本课程旨在为学员系统讲解人工智能在模拟与射频电路设计、频谱感知、调制识别与信号处理等前沿领域的应用,结合深度学习、强化学习与监督学习等核心算法,帮助学员掌握 AI 驱动的射频智能化设计与通信系统优化方法。课程内容涵盖从数据集构建(RadioML、AICircuit 等)、深度学习模型(CNN、RNN、Transformer、FNO)、到应用案例(自动调制识别、射频指纹识别、动态频谱接入、智能电路参数预测)的一体化教学体系。课程通过“理论讲解+实操训练+案例分析”的递进式框架,深入展示 AI 如何赋能 5G/6G 通信、物联网、毫米波雷达与模拟电路设计等场景。


课程目标

课程将培养学员掌握 AI 驱动射频智能化研究的核心能力,主要目标包括:
1、系统掌握射频领域的公开数据集构建与使用方法,包括 GNU Radio 合成数据集、RadioML 基准数据集、AICircuit 电路参数-性能数据集。
2、理解并能实现主流深度学习与机器学习方法在射频中的应用:CNN/RNN 在自动调制识别、Transformer 在电路参数预测、FNO 在非线性信号回归中的应用。
3、能够利用 Python 与深度学习框架(TensorFlow/PyTorch)完成从数据预处理、模型训练到性能评估的完整流程。
4、掌握 AI 在射频通信中的典型应用案例:自动调制识别、射频指纹识别、频谱感知与管理(RL/DRL)、信号分类与抗干扰建模。
5、学会使用 AICircuit 数据集与监督学习方法,实现模拟/射频电路的智能化参数设计,能够在发射机、接收机、LNA、VCO、PA 等电路中进行性能预测与优化。
最终,使学员具备从 数据集构建—算法建模—工程应用的全链条实战能力,能够将 AI 技术应用于射频通信与电路设计的前沿研究与产业场景。
AI赋能射频技术大纲


第一天 射频学习数据生成与信号辨析实践(代码实践+现场演练)
上午:开源平台助力射频学习数据生成与信号辨析实践(代码实践+现场演练)
1. 前期准备(包括软件安装、环境配置、课程介绍等)
2. 机器学习神经网络概念及其案例实操、射频理论知识概述
3. 应用格局概述 开篇将审视射频智能学习的应用格局,与图像或音频领域充裕的开源资源相比,射频波形分析常因基准数据缺失而阻碍模型评估。借助GNU Radio,研究者可定制带标签的仿真数据集,融入实际信道动态,为辨析任务提供坚实支撑。


4. 数据集生成机制 数据集生成阶段,学员将逐步拆解GNU Radio的构建机制:挑选源信号(如声音或字符串输入)、多样调制模式(涵盖PSK、QAM、PAM、GFSK、AM、FM、OFDM等)、信道仿真组件(包括频率偏移、采样失真、多径效应、瑞利/莱斯衰减、AWGN噪声),并以模块拼装方式输出灵活数据集。同步解析数据清洗规范,例如将复数波形拆解为I/Q路径,以匹配TensorFlow或Keras等平台的输入格式。
5. 神经网络应用实操 重点实操转向神经网络应用,以调制辨析为标志性示例。学员导入RadioML基准库(如RML2016.10a),采用二维卷积架构(CNN2)组装辨析模块,覆盖迭代训练、效果校验及混淆图谱解析。环节还将考察高/低信噪比下的辨析鲁棒性,并对照手工特征工程与纯数据驱动学习的效能差距。
6. 衍生挑战扩展案例 进一步扩展至射频处理的衍生挑战,如:
波形精简与稀疏建模:自适应编码实现紧凑表示;
注意力层在波形优化:智能同步时域与信道均衡;
整体通信链路自适应:自编码结构驱动的编码-解码协同;
强化机制下的频谱探测与分配。
课程环节收尾 环节收尾突出数据集在射频智能体系中的基石价值。学员将融合GNU Radio与Python工具组,迅捷产出合规数据集,并领悟迭代高难度基准数据的紧迫性,以驱动5G/6G及智慧无线生态的进步。

下午:毫米波雷达成像结合神经网络的多源视觉解析应用(编程调试+效果展示)
1. 体系轴心介绍 这一模块以PanoRadar体系为轴心,探究毫米波雷达成像与神经网络的互补机制,在烟尘或昏暗条件下达成激光雷达般的三维场景重构,并赋能表面矢量推断、语义拆分及目标追踪等视觉解析流程。
2. 神经网络模块详述 神经网络模块将细述跨域整合如何放大雷达成像的清晰度。学员利用LiDAR-雷达配对样本编排训练/校验集,选用二维卷积网络替代三维运算以精简资源消耗。调试中,将解读将雷达回波的径向维度作为通道馈入的“2D仿真3D网络”理念,并经Python脚本完成架构拼合、损失策略定制及循环优化。
3. 优化阶段整合 优化阶段整合复合损失框架:L1项锁定整体深度一致,感知项(LPIPS)提炼微观纹理,辅以玻璃区屏蔽规避LiDAR透视局限。展示将聚焦多径回波干扰下的抗性,以及感知项对阶梯或护栏等复杂轮廓的精细复原。
4. 衍生扩展链接 衍生扩展将链接至视觉下游链条:在分辨率提升结果上附加表面矢量估测、语义拆解及目标追踪分支,借ResNet骨干与FPN整合完成人物/物体定位。学员将手动编码全链,并跨建筑样本检验迁移潜力。为彰显雷达感知的专属亮点,模块还将演绎“环视整合”路径,通过边缘循环与跨界IoU度量优化全景视图的追踪效能。
5. 学员将洞悉雷达波形与神经架构的联动策略,在自主机器人载体上落地三维场景解析与视觉实验。本模块超越纯理论探讨,更藉编程迭代与即时演示,锻造信号解析、视觉计算及神经学习的交叉专长。


第二天 深度学习赋能射频频谱管理与信号调制智能解析
上午:神经网络框架下的宽频带频谱即时探测实验(编程实操+演示验证)
1. 背景与需求剖析 本环节将探讨频谱共享与探测的实际语境,阐明在WiFi与LTE等多协议并存的场景中,传统能量扫描或压缩采样技术难以兼顾时效与精确度。本版本依托DeepSense架构,通过MATLAB信号合成与Python神经建模,模拟核心流程,实现无硬件依赖的完整探测对比实验。
2. 信号数据集合成 数据合成阶段,学员将运用MATLAB工具箱生成LTE、WiFi、OFDM等规范波形,叠加瑞利/莱斯衰减、采样偏差及AWGN干扰,形成带信道效应的I/Q样本库。涵盖不同信噪比的训练/验证/测试集构建,此过程替代了GNU Radio或USRP的实地采集,确保高效标签化与环境模拟。
3. 神经网络架构构建 核心实操聚焦DeepSense的一维卷积网络设计。学员将组装轻量多标签CNN,以I/Q序列为输入,对子带占用状态进行预测。训练采用交叉熵损失与Adam求解器,利用仿真样本完成迭代与校验。同时,对比CNN与能量探测器的效能,审视低信噪比下的鲁棒差异。
4. 性能评估与模拟替代 评估模块通过混淆矩阵、ROC曲线及信噪比-精度图表系统审视模型表现。原硬件部署(如FPGA加速)转为MATLAB延迟统计与曲线拟合演示,保留实时性检验的核心逻辑。学员将体会深度学习在多变环境下的优越性,而无需物理设备。
5. 工作流总结 环节尾声强化纯仿真路径的价值:从MATLAB生成到Python建模的全链验证DeepSense精髓。学员将掌握信号合成、神经训练及效能权衡的端到端技能,为无线频谱智能决策奠基。

下午:数据驱动的调制方案自动辨识技术实践(代码编码+结果解读)
1. 概念基础与传统局限 本模块将概述自动调制辨识(AMR)在认知无线电、频谱监测及干扰排查中的枢纽地位,剖析基于似然比或特征的经典方法在复杂信道下的计算负担与适应短板。随后转向深度学习路径,突出其在高维特征挖掘与一体化建模上的突破。
2. 模型架构多样探索 模型环节详解多类神经网络的部署:从无监督自编码器与深度信念网的表示学习,到DNN基于统计累积量的分类;再至CNN处理I/Q、星座或谱图输入的低噪鲁棒设计,轻量变体融入不对称核与注意力以适配5G低延时。学员将编码GRU/LSTM的RNN序列捕捉,并融合CLDNN的时空混合,提升辨识精度。
3. 数据集与实验对比 配套RadioML2016.10a/10b、2018.01a及HisarMod2019.1等开源库,学员将训练/测试14种DL-AMR变体,分析识别率、复杂度及收敛曲线。聚焦信噪比变异下的混淆模式(如16QAM与64QAM易错),并探讨数据增强与迁移学习在MIMO场景的扩展应用。
4. 前沿机制与优化策略 扩展至GAN数据扩充、注意力/Transformer的解释性提升,以及模型压缩/知识蒸馏的嵌入式适配。学员将审视这些机制如何强化泛化,满足IoT与6G的功耗约束。
学员将精炼AMR的全栈流程:从样本准备到优化部署,构建无线智能解析的实战基础。本模块藉编码迭代与效能剖析,铸就通信工程与神经计算的融合素养。

第三天 高级时空与高效卷积框架下的调制信号智能辨识
上午:多通道时空神经架构在调制辨识中的集成实验(代码实操+可视化分析)
1. 传统方法短板审视 开端将重温自动调制辨识(AMR)在信号检测与解调间的桥梁角色,剖析基于似然或特征的常规策略在动态信道下的泛化弱点与人工依赖。随即导入神经学习路径,审视CNN、RNN及CLDNN在时序与空间捕捉上的互补潜力。
2. 多通道学习理念 核心概念聚焦多通道输入的逻辑:分离I/Q双轨、单I或Q通道以挖掘互补线索,并与复合I/Q馈入协同建模,提升辨识稳定性。学员将理解此设计如何放大特征多样性,奠定MCLDNN框架的时空融合基调。
3. 架构设计与训练技巧 模型构建详解MCLDNN结构:融合1D/2D卷积的空间提取、LSTM的序列依赖捕捉,以及全连接的分类型输出。学员经Python编码搭建网络,伴随权重可视化与中间激活图,洞察多尺度信号模式。同步讲解交叉熵损失、Adam迭代、学习率衰减及dropout防过拟合的实战配置。
4. 数据集对比与效能检验 实验采用RadioML2016.10a/10b基准,对MCLDNN与SOTA变体(如CNN-IQ、LSTM2、CLDNN、GRU2)展开精度比拼。学员将观察-4dB以上信噪比的优越表现,尤其在16-QAM/64-QAM混淆上的改进,并通过混淆矩阵剖析WBFM与AM-DSB的易错机制。
5. 效率权衡与扩展 评估参数规模、收敛速率及时长等指标,比较MCLDNN在精度-开销间的平衡。学员将习得压缩与冗余裁剪技巧,确保高效部署。本环节铸就时空多通道的辨识精进路径,为5G/6G智能无线铺路。

下午:轻量化卷积网络在调制分类中的部署实践(编程搭建+优化演示)
1. 经典路径瓶颈总结 模块伊始回顾自动调制分类(AMC)在认知无线电及5G频谱调控中的核心价值,指出似然基或特征基方法的计算密集与低噪短板。转向卷积神经优势,强调其在多尺度空间表示与自动特征上的领先。
2. MCNet网络创新解析 设计详述MCNet的核心元素:非对称核(3×1/1×3)取代3×3以瘦身参数、多路M-block(3×1、1×3、1×1流)定向特征挖掘,以及跨层残差桥接的梯度稳定。学员将Python实现全网,并在RadioML2018.01A数据集上迭代训练/校验。
3. 分类结果与误判剖析 实操检验24种调制(PSK、QAM、APSK、模拟型)的低/高阶表现,通过混淆矩阵揭示128APSK/256QAM的高误区,并探讨M-block深度对复杂度的调控。学员将量化信噪比下的精度曲线,优化网络层级以适配边缘场景。
4. 基准模型效能对标 对比ResNet、VGG及CNN-AMC等架构,展示+10dB下MCNet的23.7% VGG提升与12.4% ResNet领先,同时参数缩减40%-45%、推理加速。通过可视化,学员体会轻量设计在移动平台的部署价值。
5. 设计精髓与应用展望 收官提炼MCNet理念:非对称+残差+精简架构的精度-效率折衷,为6G实时分类注入活力。学员将统揽数据集处理、网络组装、调优及评估的全链,赋能复杂无线环境的神经应用。

第四天 深度学习的射频指纹识别与射频信号检测应用实践
上午:基于深度学习的射频指纹识别大规模实验研究 (实操+代码)
本课程聚焦于射频指纹识别(RF Fingerprinting)的深度学习方法,探索如何通过硬件相关的微小射频特征实现设备级别的身份识别。
1.射频指纹识别利用发射机电路固有的非理想特性(如 IQ 不平衡、相位噪声、载波频偏等),在信号中形成无法伪造的独特“签名”,为物联网和无线网络提供轻量化、抗篡改的安全认证机制 。
2. 教学首先介绍 RF 指纹识别的基本原理与传统方法,指出传统特征提取往往依赖通信协议,难以适应快速演进的无线标准。随后引入卷积神经网络(CNN)作为核心工具,展示其在从原始 I/Q 样本中自动提取判别性特征、实现移位不变分类方面的优势。学生将学习 CNN 在射频指纹中的适配方法,包括时间序列建模和特征可视化。
3.在数据部分,课程重点讲解论文使用的 大规模真实数据集。实验涵盖两个无线标准:其一是包含 5117 台设备、采样率 200 MS/s 的 WiFi 数据集;其二是包含 5000 台设备、采样率 100 MS/s 的 ADS-B 飞机广播数据集。每个设备的多条传输信号形成总计 400GB 的数据集,为评估深度学习模型在大规模设备环境下的可扩展性提供了基准。
4.在模型设计部分,课程对比了 两类深度 CNN 架构:一是基于 AlexNet 改造的基线模型,包含 10 层卷积和 5 层池化;二是 ResNet-50-1D,将残差连接应用于一维卷积,缓解深层网络中的梯度消失问题。学生将亲手实现这两种模型,并比较其在不同数据预处理下的性能。特别地,课程强调 WiFi 信号中的 部分均衡(Partial Equalization) 技术,展示如何在去除信道影响的同时保留设备特有特征。
5.在实验部分,课程涵盖多个关键任务:
可扩展性任务:在 50–10,000 台设备的不同规模下测试模型的分类能力;
多突发任务(Multiburst):合并多个连续传输评估鲁棒性;
训练集规模任务:分析训练样本数量对模型精度的影响;
信道变化任务:跨日期、室内外场景比较模型在信道波动下的性能;
SNR 任务:探讨在不同信噪比训练/测试组合下的泛化规律;
比特相同任务:验证模型是否依赖 MAC 地址信息,而非硬件特征。
实验结果表明,基线 CNN 在部分场景下优于 ResNet-50-1D,说明“更深的网络并不总是更好”;同时,数据增强(如在低 SNR 条件下训练)能有效提升模型在噪声环境中的鲁棒性。
课程总结深度学习在 RF 指纹识别中的应用前景,强调其在大规模 IoT 安全认证中的实用性。学生将掌握从 数据预处理—模型构建—性能测试—结果分析 的完整流程,并理解在实际无线通信环境中部署深度学习模型所面临的挑战与机遇。

下午:基于深度学习的射频信号检测与分类的参考数据集构建 (实操+代码)
本课程介绍射频信号检测与分类的参考数据集建设方法,强调其在人工智能与深度学习驱动的下一代无线通信系统中的关键作用。与语音识别、图像分类等领域已有成熟公共数据集不同,射频信号领域缺乏统一标准和大规模基准数据,这限制了深度学习算法在认知无线电和共享频谱中的应用。
1.教学首先回顾 AI/ML 在无线通信中的典型应用场景,包括 5G 系统中的天线配置、波束赋形、自适应 MIMO 优化、以及共享频谱中的动态接入管理。课程将强调频谱共享背景下的核心需求——快速、准确地检测和分类不同信号,保护优先用户并高效利用频谱资源。
2. 在数据构建部分,课程详细分析了三类主要数据来源:
现场测量数据:最接近真实环境,但标签难以获取,受噪声和干扰影响大;
实验室测试平台:使用真实射频设备,在可控条件下采集,便于标签化,但环境代表性有限;
仿真数据:可补充难以获取的信号类型(如机密雷达波形),但需要验证其与真实数据的匹配度。
3.课程将介绍 NIST 提出的 RF 数据集构建原则,包括 目标导向(针对具体频段与应用)、可追溯性(遵循 FAIR 数据管理原则)、精心策划(涵盖不同设备、信道、SNR 和干扰类型),并展示如何在采集和生成过程中保存元数据、信道信息和设备特性,以确保数据的科学价值。
4.在应用案例部分,课程选取 3.5 GHz 频段雷达检测 作为示例。学生将学习如何通过采集和模拟构建一个适用于 CBRS 频段共享的雷达波形数据集,并分析商业 LTE 发射和邻频雷达干扰对检测器性能的影响。课程将演示如何通过对比不同分类器(如基于峰值分析和高阶统计特征的方法),揭示数据集中必须包含干扰样本的重要性,否则会导致模型评估结果失真。
5.学生将掌握如何设计和管理面向深度学习的射频信号数据集,理解数据来源、标签策略与可复现性的重要性,并能够在实验中评估不同信号分类算法的性能。通过本课程,学员将具备推动射频数据集标准化和共享的能力,为未来 5G/6G 网络中基于 AI 的频谱管理提供支撑。

第五天 强化学习的认知无线电与AI驱动的模拟射频电路设计应用实践
上午:基于强化学习的认知无线电测试平台(RFRL Gym)(实操+代码)
本课程介绍 RFRL Gym 框架,这是一个用于认知无线电应用的强化学习仿真平台,旨在为 6G 与军事通信中的频谱智能化管理提供实验环境。随着无线设备数量的激增,射频频谱面临严重拥塞和干扰问题,传统方法如跳频与扩频已无法适应动态频谱环境,而认知无线电结合强化学习被视为解决方案。
1.教学首先回顾认知无线电的基本概念和动态频谱接入(DSA)的需求,强调强化学习在预测未来频谱空洞、主动规避干扰方面的独特优势。学生将理解 Q-learning 等 RL 算法如何通过“状态—动作—奖励”循环实现自适应决策,并在 Python 代码实操中体验该过程。
2.在平台部分,课程系统讲解 RFRL Gym 的架构。该平台基于 OpenAI Gym API,支持与第三方 RL 库(如 MushroomRL、Stable Baselines)无缝对接,便于算法快速部署。平台中包含多种 非玩家实体(Non-Player Entities),如恒定发射器、随机跳频器、敏捷跳频器和干扰器,用于模拟真实环境下的通信对象和对抗者。学生将学习如何通过 JSON 文件或图形化界面(GUI)自定义场景,定义信道数、观测模式、奖励函数与干扰策略。
3.在实验环节,课程通过四类代表性场景展示 RL 在频谱管理中的效果:
单实体干扰场景:验证 RL 智能体能快速收敛至最优策略;
固定模式跳频干扰场景:演示非马尔可夫性带来的次优收敛;
多实体 DSA 场景:展现 RL 智能体如何同时规避多个信号实体,实现最优频谱接入;
敏捷实体场景:揭示 RL 在非平稳环境下的不足,并引出更先进的深度 Q 学习需求。
课程还将介绍平台的可视化功能,包括 终端渲染模式 与 PyQt 图形模式,学生可直观观察智能体与实体在信道中的交互过程,以及奖励随时间的变化曲线。通过动手实验,学生将加深对强化学习在动态频谱分配与抗干扰中的应用理解。
3.进阶部分将探讨未来扩展方向:包括 多智能体强化学习(MARL) 在合作与对抗场景下的应用、CNN 信号分类与 RL 联动、真实射频硬件对接、以及 GUI 的全流程集成。
4.学生将掌握如何利用 RFRL Gym 搭建实验环境、设计频谱接入与对抗任务,并实现 RL 算法的训练与评估。本课程不仅培养学生在通信系统中的 AI 应用能力,还为未来无线频谱管理与智能电磁对抗提供研究基础。

下午:AI驱动的模拟与射频电路设计——数据集与监督学习方法(实操+代码)
本课程围绕 AICircuit 数据集 和 基于监督学习的电路设计方法 展开,系统介绍如何利用人工智能技术提升模拟与射频电路设计的效率与精度。传统电路设计依赖专家经验与参数遍历,效率低下且难以适应复杂非线性系统。本课程通过数据驱动与模型驱动两方面结合,探索机器学习在电路自动化设计中的应用。
1.课程介绍 AICircuit 数据集 的构建过程。该数据集涵盖七类常用的同质电路(共源放大器、级联放大器、两级放大器、低噪声放大器、功率放大器、压控振荡器、混频器),以及包含多个电路模块的异质系统(28 GHz 发射机与接收机)。通过 Cadence 仿真平台进行参数扫描,生成数十万条电路参数—性能指标的数据,为机器学习模型训练提供坚实基础 。
2.在方法部分,课程介绍基于 监督学习的逆向设计流程。不同于传统的参数优化,本课程强调通过模型学习 性能指标(功耗、增益、带宽、噪声等)→电路参数(电阻、电容、晶体管宽度等) 的映射关系,从而直接预测满足性能需求的电路配置。学生将学习多种模型的实现,包括 多层感知机(MLP)、Transformer、支持向量回归(SVR)、随机森林(RF)、kNN,并对比它们在不同电路类型上的表现。
3.在实验环节,课程将组织如下模块:
基础电路实验:在 CSVA、CVA、TSVA 等电路上验证不同模型的预测能力,体会简单线性关系下的高精度建模;
复杂电路实验:在 VCO 和 PA 上观察非线性与耦合效应带来的挑战,分析 Transformer 与 MLP 的优劣;
系统级实验:在发射机与接收机电路上测试大数据集下的模型表现,展示数据规模对泛化能力的提升;
对比分析:通过误差分布(P75、P90、Outlier率等)和可视化结果,理解不同模型在不同电路结构下的最优适用场景。
结果显示,简单电路(如 LNA) 由于参数-性能关系近似线性,ML 模型能够实现极低误差(0.3%);而 复杂电路(如 PA 与 VCO) 则因高度非线性表现出更大预测挑战,需要 Transformer 或 MLP 等深度模型才能较好刻画。对于 异质系统,增加训练数据量可将误差显著降低,接收机电路的预测误差最低可达 0.23%,证明了监督学习方法的可扩展性和有效性。
4.AI驱动的电路设计正在从 数据集建设(AICircuit) 走向 算法优化(监督学习框架) 的深度融合。学生将掌握从数据生成、模型训练到系统级验证的完整流程,理解如何根据电路复杂度选择合适的模型,并具备推动 5G/6G 等高频射频电路设计智能化的能力。

AI赋能射频老师

本课程授课教师来自 人工智能+射频智能通信与电路设计 的顶尖研究团队,长期致力于将机器学习方法与无线通信、模拟电路优化相结合。团队构建了完整的研究体系:
在算法创新方面,提出了基于 CNN/CLDNN 的调制识别方法、基于深度残差网络的射频指纹识别模型、基于强化学习的动态频谱接入平台(RFRL Gym)、基于监督学习的电路设计预测框架;
在工程实践方面,团队开发的 AI辅助射频电路自动设计系统 已在毫米波雷达、物联网与无线收发芯片设计中应用,实现了从电路仿真到参数优化的闭环自动化;在科研成果方面,教师主持多项 IEEE/ACM 发表的重要论文,涉及深度学习在射频信号处理、频谱共享和电路设计中的最新突破。课程将全面分享团队在 AI+射频 领域的前沿成果与实践经验,带领学员掌握 AI 在射频信号处理与模拟电路设计中的完整应用路径,助力科研人员与工程师快速提升跨学科研究与创新能力。
授课时间



人工智能赋能芯片设计
2026.5.15-----晚上授课(晚上19:00-22:00)
2026.5.16-----2026.5.17全天授课(上午9:00-11:30下午13:30-17:00)
2026.5.18-----2026.5.22晚上授课(晚上19:00-22:00)
腾讯会议 线上授课(共五天授课时间 提供全程回放视频)
AI赋能射频技术
2026.5.6-----2026.5.9晚上授课(晚上19:00-22:00)
2026.5.10-----全天授课(上午9:00-11:30下午13:30-17:00)
2026.5.11-----2026.5.14晚上授课(晚上19:00-22:00)
腾讯会议 线上授课(共五天授课时间 提供全程回放视频)
人工智能技术助力天线仿真与设计
2026.5.23-----2026.5.24全天授课(上午9:00-11:30下午13:30-17:00)
2026.5.26-----2026.5.27晚上授课(晚上19:00-22:00)
2026.5.30-----2026.5.31全天授课(上午9:00-11:30下午13:30-17:00)
腾讯会议 线上授课(共五天授课时间 提供全程回放视频)
课程费用



AI赋能射频技术/人工智能技术助力天线仿真与设计
费用:每人每班¥4980元 (含报名费、培训费、资料费)
人工智能赋能芯片设计
费用:每人每班¥5880元 (含报名费、培训费、资料费)
优惠政策:
优惠一: 两门同报9080元
优惠二:三门同报12800元
优惠三:提前报名缴费学员+转发到朋友圈或者到学术交流群可享受每人300元优惠(仅限15名)
年报优惠:16800元(可在一年内参加我单位举办的任何课程,可获得我单位往期举办的所有录像回放与资料)
报名费用可开具正规报销发票及提供相关缴费证明、邀请函,可提前开具报销发票、文件用于报销
课程培训福利



课后学习完毕提供全程录像视频回放,针对与培训课程内容 进行长期答疑,微信解疑群永不解散,参加本次课程的学员可免费再参加一次本单位后期组织的相同的 专题培训班(任意一期都可以)
培训答疑与互动
在培训中进行答疑和问题互动,以帮助学员深入理解课程内容和解决实际问题。
学员可以提出疑问,讲师将提供详细解答,特别是针对技术难点和复杂算法。
通过小组讨论和案例分享,学员将有机会交流经验,获得实时反馈,并进行实践操作演示。
展示学员的学习成果,并提供进一步的提升建议和资源支持,为学员在未来的学习和工作中提供帮助和指导。
课程授课方式



授课方式:通过腾讯会议线上直播,从零基础开始讲解,电子PPT和教程+预习视频提前发送给学员,所有培训使用软件都会发送给学员,附赠安装教程和指导安装,培训采取开麦共享屏幕和微信群解疑,学员和老师交流、学员与学员交流,培训完毕后老师针对与培训内容长期解疑,培训群不解散,往期培训学员对于培训质量和授课方式一致评价极高
课程咨询报名联系方式



联系人:刘老师
报名咨询电话|13937166645(同微信)
