動画アドレス: Shang シリコンバレービッグデータプロジェクト「オンライン教育のためのオフラインデータウェアハウス」_bilibili_bilibili
目次
03.ads_traffic_stats_by_source.json ファイル
P122【122_オンライン教育データウェアハウス開発レビュー 04:23】
第 12 章 レポートデータのエクスポート
P112
01. データテーブルを作成する
# 第12章 报表数据导出
CREATE DATABASE IF NOT EXISTS edu_report DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
# 12.1.2 创建表
# 01)各来源流量统计
DROP TABLE IF EXISTS ads_traffic_stats_by_source;
CREATE TABLE ads_traffic_stats_by_source
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`source_id` VARCHAR(255) COMMENT '引流来源id',
`source_site` VARCHAR(255) COMMENT '引流来源名称',
`uv_count` BIGINT COMMENT '访客人数',
`avg_duration_sec` BIGINT COMMENT '会话平均停留时长,单位为秒',
`avg_page_count` BIGINT COMMENT '会话平均浏览页面数',
`sv_count` BIGINT COMMENT '会话数',
`bounce_rate` DECIMAL(16, 2) COMMENT '跳出率',
PRIMARY KEY (`dt`, `recent_days`, `source_id`)
) COMMENT '各引流来源流量统计';
# 02)页面浏览路径分析
DROP TABLE IF EXISTS ads_traffic_page_path;
CREATE TABLE ads_traffic_page_path
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`source` VARCHAR(255) COMMENT '跳转起始页面id',
`target` VARCHAR(255) COMMENT '跳转终到页面id',
`path_count` BIGINT COMMENT '跳转次数',
PRIMARY KEY (`dt`, `recent_days`, `source`, `target`)
) COMMENT '页面浏览路径分析';
# 03)各引流来源销售状况统计
DROP TABLE IF EXISTS ads_traffic_sale_stats_by_source;
CREATE TABLE ads_traffic_sale_stats_by_source
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`source_id` VARCHAR(255) COMMENT '引流来源id',
`source_site` VARCHAR(255) COMMENT '引流来源名称',
`order_total_amount` DECIMAL(16, 2) COMMENT '销售额',
`order_user_count` BIGINT COMMENT '下单用户数',
`pv_visitor_count` BIGINT COMMENT '引流访客数',
`convert_rate` DECIMAL(16, 2) COMMENT '转化率',
PRIMARY KEY (`dt`, `recent_days`, `source_id`)
) COMMENT '各引流来源销售状况统计';
# 04)用户变动统计
DROP TABLE IF EXISTS ads_user_user_change;
CREATE TABLE ads_user_user_change
(
`dt` DATETIME COMMENT '统计日期',
`user_churn_count` BIGINT COMMENT '流失用户数',
`user_back_count` BIGINT COMMENT '回流用户数',
PRIMARY KEY (`dt`)
) COMMENT '用户变动统计';
# 05)用户留存率
DROP TABLE IF EXISTS ads_user_user_retention;
CREATE TABLE ads_user_user_retention
(
`dt` DATETIME COMMENT '统计日期',
`create_date` VARCHAR(255) COMMENT '用户新增日期',
`retention_day` INT COMMENT '截至当前日期留存天数',
`retention_count` BIGINT COMMENT '留存用户数量',
`new_user_count` BIGINT COMMENT '新增用户数量',
`retention_rate` DECIMAL(16, 2) COMMENT '留存率',
PRIMARY KEY (`dt`, `create_date`, `retention_day`)
) COMMENT '用户留存率';
# 06)用户新增活跃统计
DROP TABLE IF EXISTS ads_user_user_stats;
CREATE TABLE ads_user_user_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近n日,1:最近1日,7:最近7日,30:最近30日',
`new_user_count` BIGINT COMMENT '新增用户数',
`active_user_count` BIGINT COMMENT '活跃用户数',
PRIMARY KEY (`dt`, `recent_days`)
) COMMENT '用户新增活跃统计';
# 07)用户行为漏斗分析
DROP TABLE IF EXISTS ads_user_user_action;
CREATE TABLE ads_user_user_action
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`home_count` BIGINT COMMENT '浏览首页人数',
`good_detail_count` BIGINT COMMENT '浏览商品详情页人数',
`cart_count` BIGINT COMMENT '加入购物车人数',
`order_count` BIGINT COMMENT '下单人数',
`payment_count` BIGINT COMMENT '支付人数',
PRIMARY KEY (`dt`, `recent_days`)
) COMMENT '用户行为漏斗分析';
# 08)新增交易用户统计
DROP TABLE IF EXISTS ads_user_new_buyer_stats;
CREATE TABLE ads_user_new_buyer_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`new_order_user_count` BIGINT COMMENT '新增下单人数',
`new_payment_user_count` BIGINT COMMENT '新增支付人数',
PRIMARY KEY (`dt`, `recent_days`)
) COMMENT '新增交易用户统计';
# 09)各年龄段下单用户数
DROP TABLE IF EXISTS ads_user_order_user_count_by_age_group;
CREATE TABLE ads_user_order_user_count_by_age_group
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`age_group` VARCHAR(255) COMMENT '年龄段,18岁及以下、19-24岁、25-29岁、30-34岁、35-39岁、40-49岁、50岁及以上',
`order_user_count` BIGINT COMMENT '下单人数',
PRIMARY KEY (`dt`, `recent_days`, `age_group`)
) COMMENT '各年龄段下单用户数统计';
# 10)各类别课程交易统计
DROP TABLE IF EXISTS ads_course_trade_stats_by_category;
CREATE TABLE ads_course_trade_stats_by_category
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`category_id` VARCHAR(255) COMMENT '类别id',
`category_name` VARCHAR(255) COMMENT '类别名称',
`order_count` BIGINT COMMENT '订单数',
`order_user_count` BIGINT COMMENT '订单人数' ,
`order_amount` DECIMAL(16, 2) COMMENT '下单金额',
PRIMARY KEY (`dt`, `recent_days`, `category_id`)
) COMMENT '各类别课程交易统计';
# 11)各学科课程交易统计
DROP TABLE IF EXISTS ads_course_trade_stats_by_subject;
CREATE TABLE ads_course_trade_stats_by_subject
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`subject_id` VARCHAR(255) COMMENT '学科id',
`subject_name` VARCHAR(255) COMMENT '学科名称',
`order_count` BIGINT COMMENT '订单数',
`order_user_count` BIGINT COMMENT '订单人数' ,
`order_amount` DECIMAL(16, 2) COMMENT '下单金额',
PRIMARY KEY (`dt`, `recent_days`, `subject_id`)
) COMMENT '各学科课程交易统计';
# 12)各课程交易统计
DROP TABLE IF EXISTS ads_course_trade_stats_by_course;
CREATE TABLE ads_course_trade_stats_by_course
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近 1 天,7:最近 7天,30:最近 30 天',
`course_id` VARCHAR(255) COMMENT '课程id',
`course_name` VARCHAR(255) COMMENT '课程名称',
`order_count` BIGINT COMMENT '下单数',
`order_user_count` BIGINT COMMENT '下单人数',
`order_amount` DECIMAL(16, 2) COMMENT '下单金额',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程交易统计';
# 13)各课程评价统计
DROP TABLE IF EXISTS ads_course_review_stats_by_course;
CREATE TABLE ads_course_review_stats_by_course
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近 1 天,7:最近 7 天,30:最近 30 天',
`course_id` VARCHAR(255) COMMENT '课程id',
`course_name` VARCHAR(255) COMMENT '课程名称',
`avg_stars` BIGINT COMMENT '用户平均评分',
`review_user_count` BIGINT COMMENT '评价用户数',
`praise_rate` DECIMAL(16, 2) COMMENT '好评率',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程评价统计';
# 14)各分类课程试听留存统计
DROP TABLE IF EXISTS ads_sample_retention_stats_by_category;
CREATE TABLE ads_sample_retention_stats_by_category
(
`dt` DATETIME COMMENT '统计日期',
`retention_days` BIGINT COMMENT '留存天数,1-7 天',
`category_id` VARCHAR(255) COMMENT '分类id',
`category_name` VARCHAR(255) COMMENT '分类名称',
`sample_user_count` BIGINT COMMENT '试听人数',
`retention_rate` DECIMAL(16, 2) COMMENT '试听留存率',
PRIMARY KEY (`dt`, `retention_days`, `category_id`)
) COMMENT '各分类课程试听留存统计';
# 15)各学科试听留存统计
DROP TABLE IF EXISTS ads_sample_retention_stats_by_subject;
CREATE TABLE ads_sample_retention_stats_by_subject
(
`dt` DATETIME COMMENT '统计日期',
`retention_days` BIGINT COMMENT '留存天数,1-7 天',
`subject_id` VARCHAR(255) COMMENT '学科id',
`subject_name` VARCHAR(255) COMMENT '学科名称',
`sample_user_count` BIGINT COMMENT '试听人数',
`retention_rate` DECIMAL(16, 2) COMMENT '试听留存率',
PRIMARY KEY (`dt`, `retention_days`, `subject_id`)
) COMMENT '各学科试听留存统计';
# 16)各课程试听留存统计
DROP TABLE IF EXISTS ads_sample_retention_stats_by_course;
CREATE TABLE ads_sample_retention_stats_by_course
(
`dt` DATETIME COMMENT '统计日期',
`retention_days` BIGINT COMMENT '留存天数,1-7 天',
`course_id` VARCHAR(255) COMMENT '课程id',
`course_name` VARCHAR(255) COMMENT '课程名称',
`sample_user_count` BIGINT COMMENT '试听人数',
`retention_rate` DECIMAL(16, 2) COMMENT '试听留存率',
PRIMARY KEY (`dt`, `retention_days`, `course_id`)
) COMMENT '各课程试听留存统计';
# 17)交易综合指标
DROP TABLE IF EXISTS ads_trade_stats;
CREATE TABLE ads_trade_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1日,7:最近7天,30:最近30天',
`order_total_amount` DECIMAL(16, 2) COMMENT '订单总额,GMV',
`order_count` BIGINT COMMENT '订单数',
`order_user_count` BIGINT COMMENT '下单人数',
PRIMARY KEY (`dt`, `recent_days`)
) COMMENT '交易综合指标';
# 18)各省份交易统计
DROP TABLE IF EXISTS ads_trade_order_by_province;
CREATE TABLE ads_trade_order_by_province
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`province_id` VARCHAR(10) COMMENT '省份id',
`province_name` VARCHAR(30) COMMENT '省份名称',
`region_id` VARCHAR(30) COMMENT '大区id',
`area_code` VARCHAR(255) COMMENT '地区编码',
`iso_code` VARCHAR(255) COMMENT '国际标准地区编码',
`iso_code_3166_2` VARCHAR(255) COMMENT '国际标准地区编码',
`order_count` BIGINT COMMENT '订单数' ,
`order_user_count` BIGINT COMMENT '下单人数',
`order_total_amount` DECIMAL(16, 2) COMMENT '订单金额',
PRIMARY KEY (`dt`, `recent_days`, `province_id`, `region_id`, `area_code`, `iso_code`, `iso_code_3166_2`)
) COMMENT '各省份交易统计';
# 19)各试卷平均统计
DROP TABLE IF EXISTS ads_examination_paper_avg_stats;
CREATE TABLE ads_examination_paper_avg_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`paper_id` VARCHAR(255) COMMENT '试卷 id',
`paper_title` VARCHAR(255) COMMENT '试卷名称',
`avg_score` DECIMAL(16, 2) COMMENT '试卷平均分',
`avg_during_sec` BIGINT COMMENT '试卷平均时长',
`user_count` BIGINT COMMENT '试卷用户数',
PRIMARY KEY (`dt`, `recent_days`, `paper_id`)
) COMMENT '各试卷平均统计';
# 20)最近 1/7/30 日各试卷成绩分布
DROP TABLE IF EXISTS ads_examination_course_avg_stats;
CREATE TABLE ads_examination_course_avg_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`course_id` VARCHAR(255) COMMENT '课程id',
`course_name` VARCHAR(255) COMMENT '课程名称',
`avg_score` DECIMAL(16, 2) COMMENT '平均分',
`avg_during_sec` BIGINT COMMENT '平均时长',
`user_count` BIGINT COMMENT '用户数',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程考试相关指标';
# 21)最近 1/7/30 日各试卷分数分布统计
DROP TABLE IF EXISTS ads_examination_user_count_by_score_duration;
CREATE TABLE ads_examination_user_count_by_score_duration
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`paper_id` VARCHAR(255) COMMENT '试卷 id',
`score_duration` VARCHAR(255) COMMENT '分数区间',
`user_count` BIGINT COMMENT '各试卷各分数区间用户数',
PRIMARY KEY (`dt`, `recent_days`, `paper_id`, `score_duration`)
) COMMENT '各试卷分数分布统计';
# 22)最近 1/7/30 日各题目正确率
DROP TABLE IF EXISTS ads_examination_question_accuracy;
CREATE TABLE ads_examination_question_accuracy
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`question_id` VARCHAR(255) COMMENT '题目 id',
`accuracy` DECIMAL(16, 2) COMMENT '题目正确率',
PRIMARY KEY (`dt`, `recent_days`, `question_id`)
) COMMENT '各题目正确率';
# 23)单章视频播放情况统计
DROP TABLE IF EXISTS ads_learn_play_stats_by_chapter;
CREATE TABLE ads_learn_play_stats_by_chapter
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`chapter_id` VARCHAR(30) COMMENT '章节 id',
`chapter_name` VARCHAR(200) COMMENT '章节名称',
`video_id` VARCHAR(255) COMMENT '视频 id',
`video_name` VARCHAR(255) COMMENT '视频名称',
`play_count` BIGINT COMMENT '各章节视频播放次数',
`avg_play_sec` BIGINT COMMENT '各章节视频人均观看时长',
`user_count` BIGINT COMMENT '各章节观看人数',
PRIMARY KEY (`dt`, `recent_days`, `chapter_id`, `video_id`)
) COMMENT '单章视频播放情况统计';
# 24)各课程播放情况统计
DROP TABLE IF EXISTS ads_learn_play_stats_by_course;
CREATE TABLE ads_learn_play_stats_by_course
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`course_id` VARCHAR(255) COMMENT '课程id',
`course_name` VARCHAR(255) COMMENT '课程名称',
`play_count` BIGINT COMMENT '各课程视频播放次数',
`avg_play_sec` BIGINT COMMENT '各课程视频人均观看时长',
`user_count` BIGINT COMMENT '各课程观看人数',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程播放情况统计';
# 25)各课程完课人数统计
DROP TABLE IF EXISTS ads_complete_complete_user_count_per_course;
CREATE TABLE ads_complete_complete_user_count_per_course
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`course_id` VARCHAR(255) COMMENT '课程 id',
`user_count` BIGINT COMMENT '各课程完课人数',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程完课人数统计';
# 26)完课综合指标
DROP TABLE IF EXISTS ads_complete_complete_stats;
CREATE TABLE ads_complete_complete_stats
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`user_complete_count` BIGINT COMMENT '完课人数',
`user_course_complete_count` BIGINT COMMENT '完课人次',
PRIMARY KEY (`dt`, `recent_days`)
) COMMENT '完课综合指标';
# 27)各课程人均完成章节视频数
DROP TABLE IF EXISTS ads_complete_complete_chapter_count_per_course;
CREATE TABLE ads_complete_complete_chapter_count_per_course
(
`dt` DATETIME COMMENT '统计日期',
`recent_days` BIGINT COMMENT '最近天数,1:最近1天,7:最近7天,30:最近30天',
`course_id` VARCHAR(255) COMMENT '课程 id',
`complete_chapter_count` BIGINT COMMENT '各课程用户平均完成章节数',
PRIMARY KEY (`dt`, `recent_days`, `course_id`)
) COMMENT '各课程人均完成章节视频数';
02. dataxのjarパッケージを変更する
データX
[atguigu@node001 ~]$ cd /opt/module/datax/
[atguigu@node001 datax]$ python bin/datax.py -p"-Dexportdir=/warehouse/edu/ads/ads_traffic_stats_by_source/" job/ads_traffic_stats_by_source.json
2023-09-05 10:59:01.854 [job-0] エラー RetryUtil - callable を呼び出すときに例外が発生しました。最初の再試行が試行されます。この再試行は [1000] ミリ秒待機する予定であり、実際の待機時間は [1001] ミリ秒です, Exception Msg:[Code:[DBUtilErrorCode-10], description:[データベースへの接続に失敗しました。アカウント、パスワード、データベース名、IP、ポートを確認するか、DBA に問い合わせてください (ネットワーク環境に注意してください) .]. - 特定のエラー情報: com.mysql.jdbc.Exceptions.jdbc4.MySQLNonTransientConnectionException: データベース サーバーへの接続を作成できませんでした。]
2023-09-05 10:59:03.860 [job-0] エラー RetryUtil - 例外が発生した場合callable を呼び出しています。最初の 2 つの再試行を実行しようとしています。この再試行は [2000] ミリ秒待機するように計画されており、実際の待機時間は [2000] ミリ秒でした。例外メッセージ: [コード: [DBUtilErrorCode-10]、説明: [データベースに接続できませんでした。アカウント、パスワード、データベース名、IP、ポートを確認するか、DBA に助けを求めてください (ネットワーク環境に注意してください)。] - 具体的なエラー メッセージは、com.mysql.jdbc です。例外.jdbc4.MySQLNonTransientConnectionException: データベース サーバーへの接続を作成できませんでした。]
2023-09-05 10:59:07.865 [job-0] エラー RetryUtil - callable の呼び出し時に例外が発生しました。3 回目の再試行が試行されます。この再試行は [4000] ミリ秒待機する予定であり、実際の待機時間は [4000] ミリ秒です, Exception Msg:[Code:[DBUtilErrorCode-10], description:[データベースへの接続に失敗しました。アカウント、パスワード、データベース名、IP、ポートを確認するか、DBA に問い合わせてください (ネットワーク環境に注意してください) .]. - 特定のエラー情報: com.mysql.jdbc.Exceptions.jdbc4.MySQLNonTransientConnectionException: データベース サーバーへの接続を作成できませんでした。解決策: N 回確認し、アカウントとパスワードに問題はありませんでした。 /opt/module/datax/plugin/writer / mysqlwriter /libs と /opt/module/datax/plugin/ Reader /mysqlreader/libs を 2 つのライブラリに配置します。 mysql-connector-java-5.1.34.jar パッケージは mysql-connector-java-8.0.29.jar に置き換えられます。
03.ads_traffic_stats_by_source.json ファイル
DataX によるインテリジェントな分析の結果、このタスクのエラーの最も可能性の高い原因は次のとおりです:
com.alibaba.datax.common.Exception.DataXException: コード:[DBUtilErrorCode-01]、説明:[テーブル フィールド関連情報の取得に失敗しました。] . - テーブルの取得: ads_traffic_stats_by_source のフィールドにメタ情報を追加するときに失敗しました。ライブラリとテーブルの情報を確認するには DBA に連絡してください。 - java.sql.SQLSyntaxErrorException: com.mysql の 'フィールド リスト' に不明な列 'チャネル' があり
ます.cj.jdbc.Exceptions.SQLError.createSQLException (SQLError.java:120)
com.mysql.cj.jdbc.Exceptions.SQLExceptionsMapping.translateException(SQLExceptionsMapping.java:122)
com.mysql.cj.jdbc.StatementImpl.executeQuery (StatementImpl.java:1201)
com. alibaba.datax.plugin.rdbms.util.DBUtil.getColumnMetaData(DBUtil.java:563)
com.alibaba.datax.plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.dealColumnConf(OriginalConfPretreatmentUtil.java:125)
com.alibaba.datax.plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.dealColumnConf(OriginalConfPretreatmentUtil.java:140)
com.alibaba.datax.plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.doPretreatment(OriginalConfPretreatmentUtil.java:35)
com.alibaba.datax.plugin.rdbms.writer.CommonRdbmsWriter$Job.init(CommonRdbmsWriter.java:41) で
com.alibaba.datax.plugin.writer.mysqlwriter.MysqlWriter$Job.init(MysqlWriter.java:31)
で com.alibaba.datax.core.job.JobContainer.initJobWriter(JobContainer.java:704)で
com.alibaba.datax.core.job.JobContainer.init(JobContainer.java:304)
com.alibaba.datax.core.job.JobContainer.start(JobContainer.java:113)
com.alibaba.datax.core .Engine.start(Engine.java:92)
com.alibaba.datax.core.Engine.entry(Engine.java:171)
com.alibaba.datax.core.Engine.main(Engine.java:204)com.alibaba.datax.common.Exception.DataXException.asDataXException(DataXException.java:33)
com.alibaba.datax.plugin.rdbms.util.DBUtil.getColumnMetaData(DBUtil.java:575)
com.alibaba.dataxで.plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.dealColumnConf(OriginalConfPretreatmentUtil.java:125)
com.alibaba.datax.plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.dealColumnConf(OriginalConfPretreatmentUtil.java:140)
com.alibaba.datax .plugin.rdbms.writer.util.OriginalConfPretreatmentUtil.doPretreatment(OriginalConfPretreatmentUtil.java:35)
com.alibaba.datax.plugin.rdbms.writer.CommonRdbmsWriter$Job.init(CommonRdbmsWriter.java:41)
com.alibaba.datax.plugin.writer.mysqlwriter.MysqlWriter$Job.init(MysqlWriter.java:31)
com.alibaba.datax.core.job.JobContainer.initJobWriter(JobContainer.java:704)
com.alibaba .datax.core.job.JobContainer.init(JobContainer.java:304)
com.alibaba.datax.core.job.JobContainer.start(JobContainer.java:113)
com.alibaba.datax.core.Engine.start (Engine.java:92)
com.alibaba.datax.core.Engine.entry(Engine.java:171)
com.alibaba.datax.core.Engine.main(Engine.java:204)
/opt/module/datax/job/ads_traffic_stats_by_source.json
{
"job": {
"content": [
{
"reader": {
"name": "hdfsreader",
"parameter": {
"column": [
"*"
],
"defaultFS": "hdfs://node001:8020",
"encoding": "UTF-8",
"fieldDelimiter": "\t",
"fileType": "text",
"nullFormat": "\\N",
"path": "${exportdir}"
}
},
"writer": {
"name": "mysqlwriter",
"parameter": {
"column": [
"dt",
"recent_days",
"source_id",
"source_site",
"uv_count",
"avg_duration_sec",
"avg_page_count",
"sv_count",
"bounce_rate"
],
"connection": [
{
"jdbcUrl": "jdbc:mysql://node001:3306/edu_report?useUnicode=true&characterEncoding=utf-8",
"table": [
"ads_traffic_stats_by_source"
]
}
],
"username": "root",
"password": "123456",
"writeMode": "replace"
}
}
}
],
"setting": {
"errorLimit": {
"percentage": 0.02,
"record": 0
},
"speed": {
"channel": 3
}
}
}
}
P113
12.2.2 DataX 構成ファイル生成スクリプト
P114
第 13 章 データ ウェアハウスのワークフローのスケジュール設定
Apache DolphinScheduler は、分散型で簡単にスケーラブルなビジュアル DAG ワークフロー タスク スケジューリング プラットフォームです。データ処理プロセスにおける複雑な依存関係の解決に尽力し、データ処理プロセスですぐにスケジューリング システムを使用できるようにします。
P115
第 2 章 DolphinScheduler の導入手順
第 3 章 DolphinScheduler クラスター モードの展開
3.6 DolphinScheduler のワンクリック展開
[atguigu@node001 apache-dolphinscheduler-2.0.3-bin]$ jpsall
================ node001 ================
5360 QuorumPeerMain
2832 NameNode
9296 WorkerServer
3411 JobHistoryServer
5988 RunJar
9668 ApiApplicationServer
6100 RunJar
9414 LoggerServer
3000 DataNode
9545 AlertServer
10540 Jps
7020 NodeManager
================ node002 ================
5296 NodeManager
5984 WorkerServer
6032 LoggerServer
6231 Jps
4745 QuorumPeerMain
5178 ResourceManager
4986 DataNode
================ node003 ================
3985 NodeManager
4658 LoggerServer
4884 Jps
1861 DataNode
3594 QuorumPeerMain
1967 SecondaryNameNode
[atguigu@node001 apache-dolphinscheduler-2.0.3-bin]$
P116
3.7 DolphinScheduler の開始および停止コマンド
[atguigu@node001 apache-dolphinscheduler-2.0.3-bin]$ cd /opt/module/dolphinScheduler/ds-2.0.3/
[atguigu@node001 ds-2.0.3]$ ll
总用量 60
drwxrwxr-x 2 atguigu atguigu 4096 9月 6 11:21 bin
drwxrwxr-x 5 atguigu atguigu 4096 9月 6 11:21 conf
-rwxrwxr-x 1 atguigu atguigu 5190 9月 6 11:22 install.sh
drwxrwxr-x 2 atguigu atguigu 20480 9月 6 11:22 lib
drwxrwxr-x 2 atguigu atguigu 4096 9月 6 11:23 logs
drwxrwxr-x 2 atguigu atguigu 4096 9月 6 11:22 pid
drwxrwxr-x 2 atguigu atguigu 4096 9月 6 11:22 script
drwxrwxr-x 3 atguigu atguigu 4096 9月 6 11:22 sql
drwxrwxr-x 8 atguigu atguigu 4096 9月 6 11:22 ui
[atguigu@node001 ds-2.0.3]$ cd bin/
[atguigu@node001 bin]$ ll
总用量 20
-rwxrwxr-x 1 atguigu atguigu 6770 9月 6 11:21 dolphinscheduler-daemon.sh
-rwxrwxr-x 1 atguigu atguigu 2427 9月 6 11:21 start-all.sh
-rwxrwxr-x 1 atguigu atguigu 3332 9月 6 11:21 status-all.sh
-rwxrwxr-x 1 atguigu atguigu 2428 9月 6 11:21 stop-all.sh
[atguigu@node001 bin]$
Node003 はWorkerServerが動作しておらずリソースが不足しているため、リソースを 8g に変更することで動作可能ですが、必須ではありません。
P117
Hadoop、Zookeeper、hive、hive-service2、ds を起動します。
- [atguigu@node001 ~]$ myhadoop.sh 開始
- [atguigu@node001 ~]$ zookeeper.sh start
- [atguigu@node001 ~]$ nohup /opt/module/hive/hive-3.1.2/bin/hive &
- [atguigu@node001 ~]$ nohup /opt/module/hive/hive-3.1.2/bin/hive --service hiveserver2 &
- [atguigu@node001 ~]$ /opt/module/dolphinScheduler/ds-2.0.3/bin/start-all.sh
[atguigu@node001 ~]$ myhadoop.sh start
================ 启动 hadoop集群 ================
---------------- 启动 hdfs ----------------
Starting namenodes on [node001]
Starting datanodes
Starting secondary namenodes [node003]
--------------- 启动 yarn ---------------
Starting resourcemanager
Starting nodemanagers
--------------- 启动 historyserver ---------------
[atguigu@node001 ~]$ zookeeper.sh start
---------- zookeeper node001 启动 ----------
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
---------- zookeeper node002 启动 ----------
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
---------- zookeeper node003 启动 ----------
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[atguigu@node001 ~]$ nohup /opt/module/hive/hive-3.1.2/bin/hive &
[1] 3741
[atguigu@node001 ~]$ nohup: 忽略输入并把输出追加到"nohup.out"
[atguigu@node001 ~]$ nohup /opt/module/hive/hive-3.1.2/bin/hive --service hiveserver2 &
[2] 3912
[atguigu@node001 ~]$ nohup: 忽略输入并把输出追加到"nohup.out"
[atguigu@node001 ~]$ /opt/module/dolphinScheduler/ds-2.0.3/bin/start-all.sh
node001:default
...
ワークフローの実行後、ワークフロー インスタンスで DolphinScheduler が見つからないのはなぜですか? node001 の実行メモリを 4G から 8G に調整するだけです。
P118
第 5 章 DolphinScheduler の詳細
5.1 ワークフローパラメータ
DolphinScheduler はタスク ノードへの柔軟なパラメーター転送をサポートしており、タスク ノードは${パラメーター名}を通じてパラメーター値を参照できます。
優先順位は高から低の順で、ローカル パラメーター > グローバル パラメーター > 上流タスクによって渡されるパラメーターであることがわかります。
5.1.5 パラメータの優先順位
3) 結論
(1) ローカルパラメータ > グローバルパラメータ > 上流タスクによって渡されるパラメータ。
(2) 複数の上流ノードが同じ名前のパラメータを渡す場合、下流ノードは空でない値を持つパラメータを優先します。
(3) 空でない値のパラメータが複数ある場合は、上流タスクの完了時間に従ってソートし、完了時間が最も早い上流タスクに対応するパラメータを選択します。
P119
5.2 参照依存リソース
P120
13.2 データの準備
Hadoop、Zookeeper、Kafka、Maxwell、f1、f2、f3 を開始します。
P121
13.3 ワークフローのスケジュール設定の実践
[2023-09-06 17:15:26,824] エラー [ブローカー ID=0] パーティション __consumer_offsets-44 (最終更新コントローラー エポック 33) のコントローラー 1 エポック 33 から相関 ID 1 の LeaderAndIsrRequest を受信しましたが、新しいリーダー以降フォロワーになることができません-1は使用できません。(state.change.logger)
[2023-09-06 17:15:26,824] エラー [ブローカー ID=0] パーティション __consumer_offsets-32 (最終更新コントローラー エポック 33) のコントローラー 1 エポック 33 から相関 ID 1 の LeaderAndIsrRequest を受信しましたが、新しいリーダー -1 が利用できないため、フォロワーになることはできません。(状態変更ロガー)
[2023-09-06 17:15:26,824] エラー [ブローカー ID=0] パーティション __consumer_offsets-41 (最終更新コントローラー エポック 33) のコントローラー 1 エポック 33 から相関 ID 1 の LeaderAndIsrRequest を受信しましたが、新しいリーダー以降フォロワーになることができません-1は使用できません。(状態変更ロガー)
[2023-09-06 19:32:27,802] エラー [コントローラー ID=0 epoch=34] コントローラー 0 エポック 34 は、パーティション __transaction_state-27 の状態を OfflinePartition から OnlinePartition (state.change.logger) kafka.common に変更できませんでした
。 StateChangeFailedException:
scala.collection.mutable.ResizableArray.foreach(ResizableAr の kafka.controller.ZkPartitionStateMachine.$anonfun$doElectLeaderForPartitions$7(PartitionStateMachine.scala:424) の戦略 OfflinePartitionLeaderElectionStrategy(false) でパーティション __transaction_state-27 のリーダーを選出できませんでしたray.
スカラ:62)
scala.collection.mutable.ResizableArray.foreach$(ResizableArray.scala:55)
で scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:49)
kafka.controller.ZkPartitionStateMachine.doElectLeaderForPartitions(PartitionStateMachine.scala:421) で
kafka.controller.ZkPartitionStateMachine.electLeaderForPartitions(PartitionStateMachine.scala:332) で
kafka.controller.ZkPartitionStateMachine.doHandleStateChanges(PartitionStateMachine.scala) a:238)
kafka.controller で。 ZkPartitionStateMachine.handleStateChanges(PartitionStateMachine.scala:158)
at kafka.controller.PartitionStateMachine.triggerOnlineStateChangeForPartitions(PartitionStateMachine.scala:74)
at kafka.controller.PartitionStateMachine.triggerOnlinePartitionStateChange(PartitionStateMachine.scala:59)
at kafka.control ler.KafkaController.onBrokerStartup(KafkaController .scala:536)
kafka.controller.KafkaController.processBrokerChange(KafkaController.scala:1594)
で kafka.controller.KafkaController.process(KafkaController.scala:2484)
で kafka.controller.QueuedEvent.process(ControllerEventManager.scala:52)
で kafka.controller。 ControllerEventManager$ControllerEventThread.process$1(ControllerEventManager.scala:130)
at kafka.controller.ControllerEventManager$ControllerEventThread.$anonfun$doWork$1(ControllerEventManager.scala:133)
at scala.runtime.java8.JFunction0$mcV$sp.apply(JFunction0) $mcV$sp.java:23)
at kafka.metrics.KafkaTimer.time(KafkaTimer.scala:31)
at kafka.controller.ControllerEventManager$ControllerEventThread.doWork(ControllerEventManager.scala:133)
at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:96)
[2023-09-06 19:32:27,805] INFO [Controller id=0 epoch=34] パーティション __consumer_offsets-22 を OfflinePartition から OnlinePartition に状態を LeaderAndIsr(リーダー=1、リーダーエポック=37、isr=リスト(1)、zkVersion=37) (state.change.logger)
maxwell 报错: java.lang.RuntimeException: エラー: 未処理の文字セット 'utf8mb3'
- maxwell エラー: java.lang.RuntimeException: エラー: 未処理の文字セット 'utf8mb3'_Your 482 Blog-CSDN Blog
- Maxwell のインストールと使用 - Nuggets
この問題は、MySQL が utf8mb4 エンコーディングを使用して 5.5.3 以降の完全な UTF-8 を実装するために発生します。ここで、mb4 はほとんどのバイト 4 を表し、最大 4 バイトを占有します。元の utf8 は utf8mb3 に置き換えられました。解決策の 1 つは、MySQL をダウングレードし、5.5.3 より前のバージョンを再インストールすることです。もう 1 つの方法は、maxwell のソース コードを変更することです。解凍して開き、問題のあるクラス com.zendesk.maxwell.schema.columndef.StringColumnDef を見つけ、utf8mb3 を認識できるステートメントを追加して、再パッケージ化します。maxwell/lib/maxwell-1.19.0.jar をパッケージ化された maxwell-1.19.0.jar に置き換えて再起動します。
Hadoop、Zookeeper、kafka、maxwell、f1.sh、f2.sh、f3.sh を起動します。
コレクション関連のコンポーネント: kafka、flume (f1、f2、f3)、maxwell を閉じ、Hadoop、hive、Zookeeper、dolphinscheduler を開始します。
Zookeeper を起動するのを忘れました...
ApplicationContext の起動中にエラーが発生しました。条件レポートを表示するには、「デバッグ」を有効にしてアプリケーションを再実行します。
[エラー] 2023-09-07 14:46:32.033 org.springframework.boot.SpringApplication:[843] - アプリケーションの実行に失敗しました
org.springframework.beans.factory.UnsatisfiedDependencyException: 'monitorServiceImpl' という名前の Bean 作成エラー: 満たされていない依存関係が表現されましたフィールド「registryClient」を通じて; ネストされた例外は org.springframework.beans.factory.BeanCreationException です。「registryClient」という名前の Bean の作成中にエラーが発生しました。init メソッドの呼び出しに失敗しました。ネストされた例外は org.apache.dolphinscheduler.registry.api.RegistryException です: Zookeeper 接続タイムアウト...
datax はデータを hdfs、mysql_to_hdfs_full.sh に同期します。
データを ods レイヤー hdfs_to_ods_db.sh にインポートします。
ods_to_dwd.sh。
エクスポート HADOOP_HOME=/opt/module/hadoop/hadoop-3.1.3
エクスポート HADOOP_CONF_DIR=/opt/module/hadoop/hadoop-3.1.3/etc/hadoop
エクスポート SPARK_HOME=/opt/module/spark/spark-3.0.0- bin-hadoop3.2
エクスポート JAVA_HOME=/opt/module/jdk/jdk1.8.0_212
エクスポート HIVE_HOME=/opt/module/hive/hive-3.1.2
エクスポート DATAX_HOME=/opt/module/dataxエクスポート PATH=$HADOOP_HOME/bin:$SPARK_HOME/bin:$JAVA_HOME/bin:$HIVE_HOME/bin:$DATAX_HOME/bin:$PATH
直列接続