当数据量比较庞大的时候,如何稳定并高效的刷新CUBE

当一个多维分析报表的数据比较庞大的时候,如果全量刷新CUBE时间消耗特别大,可否有增量刷新的方式提高效率,并且刷新的CUBE不会影响历史数据的CUBE。若有该如何开发呢?

参与14

3同行回答

cuicuitigercuicuitiger软件架构设计师龙江银行股份有限公司
可以按日期将Cube分区,Cognos会依据数据日期将Cube分成若干小文件,在Tr建模的时候可以选择分区方式生成Cube显示全部

可以按日期将Cube分区,Cognos会依据数据日期将Cube分成若干小文件,在Tr建模的时候可以选择分区方式生成Cube

收起
银行 · 2016-10-27
浏览1329
  • 如果只想重刷中间某一个日期分区的数据,如何实现?
    2016-10-27
  • 如果是增量的话 好办 直接写个脚本就刷新了 如果是重刷某一个段日期的话比较麻烦,需要把这段日期的.mdc文件删掉,重新生成这段日期的.mdc
    2016-10-27
BangbenBangben咨询专家ibm
数据量太大的情况下,建议尝试用Dynamic Cube来做. 显示全部

数据量太大的情况下,建议尝试用Dynamic Cube来做.

收起
IT咨询服务 · 2016-10-28
浏览1083
andaanda其它vipabc
有必要就是切cube使用显示全部

有必要就是切cube使用

收起
IT咨询服务 · 2016-10-28
浏览1140

提问者

gw880626
商业智能工程师中国太平洋保险
擅长领域: 大数据cognos联机分析处理

问题来自

相关问题

相关资料

问题状态

  • 发布时间:2016-10-27
  • 关注会员:5 人
  • 问题浏览:4781
  • 最近回答:2016-10-28
  • X社区推广