(19)国家知识产权局
(12)发明 专利
(10)授权公告 号
(45)授权公告日
(21)申请 号 202211154582.X
(22)申请日 2022.09.22
(65)同一申请的已公布的文献号
申请公布号 CN 115242729 A
(43)申请公布日 2022.10.25
(73)专利权人 沐曦集成电路 (上海) 有限公司
地址 201306 上海市浦东 新区中国 (上海)
自由贸易试验区临港新片区环湖西二
路888号C楼
(72)发明人 不公告发明人
(74)专利代理 机构 北京锺维联合知识产权代理
有限公司 1 1579
专利代理师 丁慧玲
(51)Int.Cl.
H04L 47/6275(2022.01)G06F 16/2455(2019.01)
G06F 12/0877(2016.01)
(56)对比文件
CN 113157605 A,2021.07.23
CN 114679415 A,202 2.06.28
CN 113904997 A,202 2.01.07
CN 111488135 A,2020.08.04
CN 114531488 A,2022.05.24
US 201316 6847 A1,2013.0 6.27
US 201907987 7 A1,2019.0 3.14
US 2017093740 A1,2017.0 3.30
审查员 肖云鹏
(54)发明名称
基于多优先级的cac he查询系统
(57)摘要
本发明涉及一种基于多优先级的cache查询
系统, 包括第一缓冲模块和N个cache接收端{ C1,
C2,…CN}, M个发送端对应P个优先级{W1, W2,…
WP}; 每一Ci对应一个地址请求范围Zi, Zi对应的
cache包括Q个独立的cache区域{CXi1,CXi2,…
CXiQ}, 当第一缓冲存模块为待发送的缓存请求
信息确定对应的Ci时, 基于缓存请求信息对应的
发送端优先级所属的WRq确定对应的C Xiq, 将待发
送的缓存请求信息发送至对应的CXiq中进行处
理。 本发明提高了多个发送端向多个cache发送
请求信息的cac he命中率和处 理效率。
权利要求书1页 说明书7页 附图1页
CN 115242729 B
2022.11.25
CN 115242729 B
1.一种基于多优先级的cac he查询系统, 其特 征在于,
包括第一缓冲模块和N个cac he接收端, 其中,
所述第一缓冲模块一端与M个发送端相连接, 另一端与N个cache接收端{C1, C2,…CN}相
连接, Ci表示第i个cache接收端, i的取值范围为1到N, 所述第一缓冲模块用于缓存所述M个
发送端发送的请求信息, 并向所述N个cache接收端分发请求信息, 所述M个发送端对应P个
优先级{W1, W2,…WP}, W1, W2,…WP的优先级级别依次降低, p为优先级级数, p的取值范围为1
到P, P≤N, 每一优先级对应至少一个发送端, {W1, W2,…WP}分为Q个优先级组{WR1, WR2,…
WRQ},Q ≤P , WRq‑1中的最低优先级高于WRq中的最高优先级, q的取值范围为1到Q;
每一Ci对应一个地址请求范围Zi, 不同Ci对应的Zi不重叠, Zi对应的cache包括Q个独立
的cache区域{CXi1,CXi2,…CXiQ}, CXi1,CXi2,…CXiQ在物理上相互隔离, 且对应的cache区域
大小依次降低, CXiq对应的地址请求范围均为Zi, 当所述第一 缓冲模块为待发送的缓存请求
信息确定对应的Ci时, 基于缓存请求信息对应的发送端优先级所属的WRq确定对应的CXiq,
将待发送的缓存请求信息发送至对应的CXiq中进行处 理。
2.根据权利要求1所述的系统, 其特 征在于,
若p≤px, 且Wp对应的发送端与其他优先级对应的发送端共享一个cache接收端时,
cache命中率较独享一个cache接收端的cache命中率的差值大于预设的命中率差值阈值
时, 则将Wp单独划分为 一个优先级组中, 其中, px预设的优先级标识阈值, px< P。
3.根据权利要求1所述的系统, 其特 征在于,
若P小于预设的阈值, 则Q=P, 每 个优先级组中对应一个优先级。
4.根据权利要求1所述的系统, 其特 征在于,
WR1中仅包括 W1, W1对应的发送端在每一cac he接收端中独享 一个cache区域。
5.根据权利要求 4所述的系统, 其特 征在于,
Q=2, WR2中包括{ W2, W3,…WP}, W2, W3,…WP对应的发送端在每一cache接收端中共享一个
cache区域。
6.根据权利要求1所述的系统, 其特 征在于,
所述系统还包括第二缓冲模块, 所述第二缓冲模块一端与N个cache接收端连接, 另一
端与memory连接, 所述第二缓冲模块用于缓存N个cache接收端发送的请求信息, 并向所述
memory分发。
7.根据权利要求6所述的系统, 其特 征在于,
所述第二缓冲模块包括Q个缓冲FIFO{F1, F2,…FQ},Fq用于接收所有CXiq输出的请求信
息。
8.根据权利要求7 所述的系统, 其特 征在于,
F1, F2,…FQ向所述memory发送请求信息优先级从高到低, 所述第二缓冲模块将{F1,
F2,…FQ}中存储有请求信息且 优先级最高的Fq中的请求信息发送给 所述memory。权 利 要 求 书 1/1 页
2
CN 115242729 B
2基于多优 先级的cache查询系统
技术领域
[0001]本发明涉及计算机技 术领域, 尤其涉及一种基于多优先级的cac he查询系统。
背景技术
[0002]在处理请求信息的场景中, 通常会遇到多个发送端向多个接收端发送请求信息的
情况, 通常情况下, 接收端需要通常需要一定时间来处理接收到的请求, 且在处理过程中不
能接收新的请求, 现有技术中, 通常在多个发送端和多个接收端之间设置一个FIFO对请求
信息进行缓存, 从而平衡多个发送端和多个接收端的带宽和处理速率。 但是, 不同发送端的
响应速率不同, 有些响应慢, 有些响应快, 如果将所通道的请求信息均缓存到一个FIFO中,
则极易造成不同发送端的请求信息相互堵塞, 缓存分发效率低。 如果为每一发送端设置一
个FIFO进 行缓存, 会占用大量的面积, 浪费资源, 降低性能。 由此可知, 如何提供一种合理的
缓存分发技 术, 提高缓存分发效率成为亟 待解决的技 术问题。
[0003]此外, 如果接收端为cache, 应用场景为多个 发送端向多个cache请 求信息时, 在缓
存分发后, 如果将响应速率不同的发送端对接同一个cache终端, 则会降低cache命中率, 从
而影响了请求信息的处理效率, 由此可知, 如何提高多个发送端向多个cache发送请求信息
的处理效率, 也成为亟 待解决的技 术问题。
发明内容
[0004]本发明目的在于, 提供一种基于多优先级的cache查询系统, 提高了多个发送端向
多个cache发送请求信息的cac he命中率和处 理效率。
[0005]本发明提供了一种基于多优先级的cache查询系统, 包括第一缓冲模块和N个
cache接收端, 其中,
[0006]所述第一缓冲模块一端与M个发送端相连接, 另一端与N个cache接收端{C1, C2,…
CN}相连接, Ci表示第i个cache接收端, i的取值范围为1到N, 所述第一缓冲存模块用于缓存
所述M个发送端发送的请求信息, 并向所述N个cache接收端分发请求信息, 所述M个发送端
对应P个优先级{W1, W2,…WP}, W1, W2,…WP的优先级级别依次降低, P≤N, 每一优先级对应至
少一个发送端, {W1, W2,…WP}分为Q个优先级组{WR1, WR2,…WRQ},Q ≤P , WRq‑1中的最低优先
级高于WRq中的最高优先级, q的取值范围为1到Q;
[0007]每一Ci对应一个地址请求范围Zi, 不同Ci对应的Zi不重叠, Zi对应的cache包括Q个
独立的cache 区域{CXi1,CXi2,…CXiQ}, CXi1,CXi2,…CXiQ在物理上相互隔离, 且对应的cache
区域大小依次降低, CXiq对应的地址请求范围均为Zi, 当所述第一 缓冲存模块为待发送的缓
存请求信息确定对 应的Ci时, 基于缓存请求信息对应的发送 端优先级所属的WRq确定对应的
CXiq, 将待发送的缓存请求信息发送至对应的CXiq中进行处 理。
[0008]本发明与现有技术相比具有明显 的优点和有益效果。 借由上述技术方案, 本发明
提供的一种基于多优先级的cache查询系统可达到相当的技术进步性及实用性, 并具有产
业上的广泛利用价 值, 其至少具有下列优点:说 明 书 1/7 页
3
CN 115242729 B
3
专利 基于多优先级的cache查询系统
文档预览
中文文档
10 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 17:17:02上传分享