网站API返回数据太大该怎么加速
本帖最后由 zx2000 于 2021-7-2 22:20 编辑网站有很多API返回的数据都过MB大小(API都是查询类的,不会经常更新),导致在很多人的情况下同时访问会造成带宽跟不上。。想请问一下有没有什么产品可以将这些API数据短暂缓存起来,请求一次后不经过服务器。。 用redis,走内存的方式返回数据,不进行IO流读取 最简单的办法还是优化接口吧,其他的方法都治标不治本。在不考虑数据拆分的情况下,可以采用:把列表类型的数据进行分页。 既然不经常更新,直接上CDN缓存就好了 本帖最后由 涛之雨 于 2021-7-3 00:04 编辑
刚发现楼主问问题不说是什么平台的。。。。
web端:https://zhuanlan.zhihu.com/p/115243059
考虑使用渐进式框架(推荐vue),配合servicework本地进行大数据的缓存,应该可以完美解决
服务器那边仅需要给一个api去判断数据是不是最新的就行(也可以直接塞到网页里做个参数然后本地比对也行)
本地客户端(pc,安卓,等):
把数据保存到本地每次可以调用一个api查看是否有更新
服务器优化:
把信息按一定规则拆分成若干小的数据包,需要什么异步请求什么,比如首字母啊,序号啊,区域啊,什么的 可以使用CDN进行缓存。 楼上说的都对 致远啊 发表于 2021-7-2 22:31
用redis,走内存的方式返回数据,不进行IO流读取
redis能解决带宽瓶颈? 扯淡呢! GZIP 服务器可以考虑修改API分页查询
页:
[1]