1作者: ssnape7 天前原帖
我们正在使用 Dagster 运行 dbt,并在 8 个月内增长到了大约 300 个模型。编译时间已经增加到 30 秒以上,我能感受到潜在的问题。 如果我们继续以相同的速度增长到 3000 个模型(预计在 2-3 年内达到),那么编译时间可能会达到 5 分钟以上。 有没有其他人也在使用 dbt 时遇到过这种扩展瓶颈?在达到多少个模型时,编译时间变得令人痛苦?希望能听到一些经验分享,或者如果其他人发现更快的替代方案会很有帮助。
1作者: WarOnPrivacy7 天前原帖
静态数据(存储中的数据)通常以字节为单位进行可靠测量。而动态数据(传输中的数据)在大多数地方(如互联网服务提供商)以比特为单位测量,而在某些设备(如一些网络设备)中则以字节为单位测量。 对于动态数据来说,使用字节似乎与广泛接受的标准有所偏离。 也许有其合理的原因。为什么在通常期望使用比特的地方选择使用字节?(特别提到你,TrueNAS。)