BigQuery里丢失很多数据,是Bug吗?

BigQuery里丢失很多数据,是Bug吗?

Firebase或GA4与BigQuery关联后,将原始数据通过每日批量导出(Daily export)的方式导出到BigQuery,但发现有很大比例的丢失,例如,Firebase或GA4每天的事件数是10万,BigQuery只有1万条记录。

首先考虑GAP的合理性,Google对免费版是没有SLA承诺,会有一定的GAP,低于2%考虑是合理范围。

其次考虑限额:如免费版的BigQuery每天最多导出100万,存储只有10G

最后考虑Bug,这是一个已经知道的问题,延伸阅读:https://issuetracker.google.com/issues/

Google最终回复是:

Unfortunately, we can’t fix the issue at this time and apologize for any inconvenience.

Product Engineer Team Comments: Issues like this are often specific and not part of a wider bug. Each case needs individual troubleshooting, Midjourney 教程 so we recommend checking row limits, missing billing details, and ensuring expected events are exported.

If you have any further questions or need assistance with any other matter, please don’t hesitate to create a new issue on the Issue Tracker. I will now proceed to close this issue.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/273942.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午12:49
下一篇 2026年3月12日 下午12:50


相关推荐

关注全栈程序员社区公众号