FineDataLink实战案例分享【1120周】

楼主
我是社区第567266位番薯,欢迎点我头像关注我哦~

本周上新六个新方案,快来查看吧!!!

1、高频指标借助参数实现轻量化修改

1.1 应用场景

用户需要对活跃客户的占比进行分析,但由于不断变化的业务需求,活跃客户的定义会不定期修改。

例如,上半年活跃客户被定义为在过去 3 个月内至少在商城下单 2 次的连锁客户,而下半年的定义则是在过去 6 个月内至少下单 3 次的客户。这种指标变化需要 IT 团队重新评估相关数据的计算逻辑,可能会带来繁重的工作量。

1.2 实现思路

将业务指标中的数值参数化,例如本文 1.1 节场景中的活跃客户指标:近 X 个月,下单次数,可作为参数进行自定义修改。

1.3 实现过程

请参见文档:高频指标借助参数实现轻量化修改

2、新增/修改宜搭表单数据

2.1 应用场景

用户希望根据业务数据库中的数据,更新、新增宜搭表单的数据。

2.2 实现思路

调用 新增或更新表单实例 接口,来更新、新增宜搭表单的数据。

注:「第三方个人应用」不支持调用上述接口。

2.3 实现过程

请参见文档:新增/修改宜搭表单数据

3、循环多次读取Windows环境文件同步数据

3.1 应用场景

用户 Windows 系统中有多个相同格式的 Excel 文件,需要读取所有文件数据并进行 行转列 操作。

由于 文件输入 算子批量读取文件时,是将所有文件数据上下合并,合并后的数据会存在重复值,行转列时会报错(行转列算子中,要求「待行转列」的字段名称不能重复)。

3.2 实现思路

每次读取一个 Excel 文件,并对读取后的数据进行处理,循环执行该过程,避免一次性读取所有文件,导致出现数据重复无法进行行转列操作问题。

注:本文方案适用于 4.0.29 及之后版本。

3.3 实现过程

请参见文档:循环多次读取Windows环境文件同步数据

4、【Linux环境】PostgreSQL环境准备

4.1 应用场景

FDL 工程部署在 Linux 环境中,通过数据管道实时同步 PostgreSQL 数据前,需要参考本文在数据源中进行一些配置,为后续的数据同步做好准备。

4.2 实现过程

请参见文档:【Linux环境】PostgreSQL环境准备

5、BI仪表板展示管道任务信息

5.1 应用场景

用户想了解某个管道任务是谁编辑的、编辑时间、断点相关信息等,FDL 工程内的 管道任务运维 无法满足需求。

5.2 实现思路

用户可根据实际需求,使用 FineDB 数据库中的数据管道表 ,筛选出需要的字段,最后将多张表进行关联即可。

5.3 实现过程

请参见文档:BI仪表板展示管道任务信息

6、批量修改定时任务中的数据连接名

6.1 应用场景

FDL 中原先采用的数据连接名为demo1,已在大量定时任务中使用。为了规范数据连接命名,需将此数据连接名更改为fdl_demo,目前需要逐个打开定时任务并手动重新选择新命名的数据连接,操作过程比较麻烦。

鉴于定时任务数量较多,手动选择过于繁琐,本文提供一种批量替换的解决方案。

6.2 实现思路

定时任务中的数据连接名保存在 dp 文件内,来源是fromConnectionName,去向是toConnectionName。如下图所示:

6.3 实现过程

请参见文档:批量修改定时任务中的数据连接名

 

 

 

 

分享扩散:

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

0回帖数 1关注人数 3430浏览人数
最后回复于:2023-11-22 16:19

返回顶部 返回列表