news 2026/2/7 18:06:12

FPGA基础知识(二十):Xilinx Block Memory IP核(5)--ROM 详解

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
FPGA基础知识(二十):Xilinx Block Memory IP核(5)--ROM 详解

《FPGA基础知识》系列导航

本专栏专为FPGA新手打造的Xilinx平台入门指南。旨在手把手带你走通从代码、仿真、约束到生成比特流并烧录的全过程。

本篇是该系列的第二十篇内容

上一篇:FPGA基础知识(十九):Xilinx Block Memory IP核(4)--True Dual Port RAM 详解-CSDN博客

下一篇:关注我,第一时间获取更新!!


大家好,今天我们来分享block Memory Generate的最后一个知识点:ROM,说起ROM,主要是为了将我们提前写好的数据文件,作为源数据,导入FPGA,作为后续使用的。

这个ROM我之前的使用场景是用来存储 仿真好的移相器的参数用作相控阵雷达的俯仰角控制的,ROM最重要的是.coe文件的文件格式。

1 手册说明

手册里面给出的格式说明如下:

通过radix配置是2(二进制),10(十进制),16(十六进制)

通过vector配置数据

如果这里没有理解,没有关系哈,大家跟着我的思路试一下

2 IP核配置

为了方便说明,我这里选择了单端口的ROM,数据宽度8bit,深度16bit,深度会直接决定地址addr的宽度哈

这里,我们勾选load init file,即导入初始化文件,如果我们已经有准备好的coe文件,点击Browse选择你的文件路径即可,但如果没有就点击Edit直接编辑就可以

我这里现在没有文件,我就给大家现场编辑了,点击Edit,按照上面的步骤新建一个test.coe的文件,点击save

会打开这样一个界面,大家可以在这里填自己的数据,我这个是刚才写的 上面的radix即选择你是 二进制 十进制 还是 十六进制,我这里是 16进制的 我就给了16

下面的vetor写的就是你的数据列表,我暂时按照我的配置8bit位宽16深度给了16个8bit的数据

他其实就会生成一个这样的文件

3 仿真

我们配置好之后,可以仿真看看,如下

这是从ROM中读出的数据,与我刚才的写入是一致的

那关于ROM的使用方法就这些,大家可以试试,如果大家有现成的数据,可以按照FPGA的coe文件格式整理好,一般数据量大的时候,自己手动整理比较麻烦,我们就可以借助Matlab等工具进行数据整理。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/4 20:02:26

告别深夜批改:用Qwen3-VL大模型打造会“理解”的作文阅卷助手

深夜十一点,李老师揉了揉发酸的眼睛,面前还有三十多篇作文等待批改。 这是无数语文教师的日常写照——繁重的批改负担、难以完全统一的标准、反馈到达学生手中时已失去时效性。 而在AI技术日新月异的今天,我们能否让机器真正“理解”一篇作…

作者头像 李华
网站建设 2026/2/4 20:16:29

LobeChat语音输入功能实测:让AI对话更自然流畅

LobeChat语音输入功能实测:让AI对话更自然流畅 在移动办公、车载交互和无障碍场景日益普及的今天,用户对AI助手的期待早已不止于“能答”,而是“听得懂、反应快、用得顺”。键盘敲字虽然精准,但面对做饭时腾不出手查菜谱、开车途中…

作者头像 李华
网站建设 2026/2/4 20:39:15

基于PaddlePaddle的视觉模型训练实战:从Docker安装到GPU算力调用

基于PaddlePaddle的视觉模型训练实战:从Docker安装到GPU算力调用 在AI项目落地过程中,最让人头疼的往往不是算法本身,而是“环境装不上”、“在我机器上明明能跑”这类问题。尤其是涉及深度学习视觉任务时,Python版本、CUDA驱动、…

作者头像 李华
网站建设 2026/2/7 10:36:07

LobeChat能否实现多轮对话优化?上下文理解增强策略

LobeChat的多轮对话优化实践:上下文理解如何真正落地? 在今天,一个聊天机器人“听懂”用户说了什么,已经不再稀有。但真正考验其智能水平的,是它能否记住你之前说过的话——比如你在三轮对话前提到的偏好、设定的角色…

作者头像 李华
网站建设 2026/2/6 1:22:54

如何在Windows和Linux上完成TensorRT安装包的部署

如何在Windows和Linux上完成TensorRT安装包的部署 在AI模型从实验室走向生产环境的过程中,推理效率往往成为决定系统能否落地的关键瓶颈。一个在训练时表现优异的模型,如果在服务端响应迟缓、吞吐低下,就难以支撑真实业务场景的需求。尤其是…

作者头像 李华
网站建设 2026/2/7 17:42:18

Dify在边缘计算场景下部署的可行性评估

Dify在边缘计算场景下部署的可行性评估 在智能制造车间,一位维修工程师正对着一台故障设备束手无策。他拿起手持终端,用语音提问:“XX型伺服电机报过热警报,可能原因有哪些?”不到两秒,本地AI助手便返回了结…

作者头像 李华