zx2000 发表于 2021-7-2 22:19

网站API返回数据太大该怎么加速

本帖最后由 zx2000 于 2021-7-2 22:20 编辑

网站有很多API返回的数据都过MB大小(API都是查询类的,不会经常更新),导致在很多人的情况下同时访问会造成带宽跟不上。。想请问一下有没有什么产品可以将这些API数据短暂缓存起来,请求一次后不经过服务器。。

致远啊 发表于 2021-7-2 22:31

用redis,走内存的方式返回数据,不进行IO流读取

smallchen 发表于 2021-7-2 22:32

最简单的办法还是优化接口吧,其他的方法都治标不治本。在不考虑数据拆分的情况下,可以采用:把列表类型的数据进行分页。

风之暇想 发表于 2021-7-2 23:04

既然不经常更新,直接上CDN缓存就好了

涛之雨 发表于 2021-7-3 00:00

本帖最后由 涛之雨 于 2021-7-3 00:04 编辑

刚发现楼主问问题不说是什么平台的。。。。

web端:https://zhuanlan.zhihu.com/p/115243059

考虑使用渐进式框架(推荐vue),配合servicework本地进行大数据的缓存,应该可以完美解决
服务器那边仅需要给一个api去判断数据是不是最新的就行(也可以直接塞到网页里做个参数然后本地比对也行)

本地客户端(pc,安卓,等):
把数据保存到本地每次可以调用一个api查看是否有更新


服务器优化:
把信息按一定规则拆分成若干小的数据包,需要什么异步请求什么,比如首字母啊,序号啊,区域啊,什么的

绫织梦 发表于 2021-7-3 01:02

可以使用CDN进行缓存。

jiaozaishijie 发表于 2021-7-3 05:17

楼上说的都对

萌萌哒的小白 发表于 2021-7-3 08:22

致远啊 发表于 2021-7-2 22:31
用redis,走内存的方式返回数据,不进行IO流读取

redis能解决带宽瓶颈? 扯淡呢!

黑龍 发表于 2021-7-3 08:56

GZIP      服务器可以考虑修改API分页查询
页: [1]
查看完整版本: 网站API返回数据太大该怎么加速