上一篇文字,我们初步对 Data Flow 有个简单的了解,也就是说可以使用 Data Flow 完成一些复杂的逻辑,如,数据计算,数据筛选,数据清洗,数据整合等操作,那我们今天就结合 Data Flow 中的常用数据转换逻辑拉演示在实际场景中如何实现。
Task1:将数据源的数据进行分组 去重
Task2:去重后的数据进行筛选,过滤
Task3:根据筛选、过滤后的数据派生出新的备注列
Task4:将以上处理过的数据写入到新的 CSV 文件中
--------------------我是分割线--------------------↳
登录到 Azure Portal ,在已有的 storage account 上的 sourcecontainer 上传 csv 文件,如下图所示
使用 DataFlow 进行数据筛选处理
点击 左侧 Data Flow ... “new data flow” 创建新的 Data Flow
Name:“FromAzureBlob_DataFlow”
首先添加数据源 “source1”,Dataset 类型选择 “FormAzureBlob”(数据源来自 Azure Blob)
点击 ”Import projection“ 导入整个 csv 文件的架构
点击 “Refresh” 可以预加载数据
接下添加 “Aggregate” 分组组件,以 ”NAME“ 作为分组依据,其他字段取 max(value)
点击 Data preview 页面的 ”Refresh“ 进行刷新操作
添加 ”Filter“ 组件进行过滤 AGE >30 & AGE<=30,同时需要注意,两个 filter 的数据源都得是 ”aggregate1“
Incoming stream:aggregate1
Filter On:AGE > 30
Incoming stream:aggregate1
Filter On:AGE <= 30
根据 AGE 派生出新的列 REMARK
AGE >30
AGE <= 30
使用 ”union“ 将两组拆分计算好的逻辑的整合
最后,使用 ”sink“ 将数据写入到新的目标数据集中
Settings 页面设置,将数据整合成一个文件输出
Mapping 关于如下图所示
新建 pipeline,添加 Data Flow 组件,输入以下参数
Settings =》Data flow 选择 ”FromAzureBlob_DataFlow“
点击 ”Debug“ 进行调试,可以看到 ouput 输出中的 dataflow 允许程序
冷知识:Data Flow 所使用的 Azure IR 为 ”AutoResolveIntegrationRuntime“ 也就是微软托管机器,需要经历 创建、启动的过程
最后,我们打开新的 csv 文件,查询刚刚在 data flow 中编写的数据清洗的逻辑是否正常
找到 ”targetcontainer“ ,点击进去 container 内部
以下是输入的新的 csv 文件
今天我们通过一些了操作演示,展示了 Azure Data Flow 对数据的处理,绝大多数的数据处理,通过这些丰富的组件就可以轻松完成分析、计算任务。从而提高数据处理效率和质量
参考连接:Azure 数据工程中的的映射数据流
作者:Allen
版权:转载请在文章明显位置注明作者及出处。如发现错误,欢迎批评指正。