数据驱动:从方法到实践
2021-05-19 23:37:22 1 举报
AI智能生成
理想的数据驱动应该是怎样的?我们应该反向思考这一问题,先把数据源整好,在这个基础上提供强大的分析平台,让业务需求提出者能够自助式( Self-Service )地完成数据分析需求,从串行变成并行,完成需求从几天时间缩短到几分钟甚至几秒钟,这才是理想中的数据驱动
作者其他创作
大纲/内容
激活(Activation)
如何提升用户激活?不妨尝试以下途径
1. 减少干扰。避免繁文缛节,让用户尽快使用核心功能
2. 提升性能。
3. 增加引导
4. 人工接入
留存(Retention)
关注留存:客户获取成本( CAC )小于客户生命周期价值( LTV ) LTV 和 CAC 是商业模式可行性中不可或缺的两个变量。业界普遍认为, CAC 要明显小于 LTV 才能算平衡的商业模式,在企业服务领域更甚, LTV 大于 3 倍的 CAC 才算得上企业良性发展,这已经被认为是全球通用的固定法则。
提升留存:降低流失率
1. 精准信息推送
2. 运用 Magic Number
3. 流失用户挽回
利用留存:读懂用户留存,最大限度延长用户生命周期
数据驱动商业决策的价值
数据驱动商业决策实现了以下三大价值
1. 透过现象看本质,提升企业决策的准确性与科学性。
2. 用数据说话,降低企业沟通成本
3. 赋予企业全面准确的商业洞察力,实现智能商业预测
两种用户画像:User Persona与User Profile
用户画像( User Profile ),即根据每个人在产品中的用户行为数据,产出描述用户的标签的集合。
是否反应受众的真实需求
用户画像( User Profile )这个词的字面意义,是关注人口属性、生活状态、人生阶段等静态信息
· 时效性:用户的兴趣偏好随时都在发生变化,需要及时更新用户标签。
· 覆盖度:用户画像( User Profile )既要勾勒出用户感兴趣的内容,也要记录用户不感兴趣的信息,尽量多地满足产品运营的需要
用户画像(User Profile)标签体系的建立
一类是结构化的标签体系,这类标签可以直接从人口属性、物品信息等基本信息中直接得到,有明确的层级关系,非结构化标签体系,就是各个标签各自反应各自的用户兴趣,彼此之间并无层级关系。
数据应用的阶段
提升前两个阶段的留存曲线是非常重要的
1. 找到影响新用户留存的关键功能。
2. 从用户行为监控用户活跃度。
3. 提高渗透率和利用率
4. 引导客户使用高价值功能
5. 从客户业务的流程触发视角去使用产品。
零售行业数据驱动实践
新零售时代,线上线下融合要打通“三关”,具体如下
1. 线上线下数据打通。
2. 用户行为数据与业务交易数据打通
3. 全部门全场景的数据驱动
总结
1.随着技术的发展,企业竞争出现白日化现象,加之目前互联网各种技术的不停发展,互联网行业出现大量的数据,导致新的互联网公司交与传统公司相比较出现数据精准营销现象发生。
2.通过在平台中采集使用用户产生的大量数据来加之以分析,进行网页页面,APP界面进行各个元素的点击分析对比,判断用户界面设计,商品主要窗口商品的摆放,以及用户在每个页面浏览停留有的时间,来逐步提升公司产品的运营能力,增加公司产品的销售量。
3.采用用户的注册信息,以及用户使用后的操作信息来进行进行综合分析,根据用户操作记录进行用户的精准画像,实行用户的"千人千面"的精准销售。较与以前营销的方式大大提高公司的利润价值。
4.根据采用不同的用户使用场景及产品的使用路径,进行产品用户使用的漏斗行为分析,判断用户新增,流失量,问题点具体出现在什么地方。目前难点在于很多公司各个业务部门数据链路是不通的,整合难度系数大,问题抽象归类难,采集的根本数据不稳定及不准确等现象。
5.通过打通公司的业务数据,用户数据,销售数据等,公司使用的各种关系平台,进行数据的融合,进行整体公司的用户群,及使用情况进行用户画像,进行抽象的勾画出用户标签,进行标签化的营销及销售点问题分析,找出问题,按照公司的问题点进行货品铺放及产品设计策略。
6.数据驱动是当下极度竞争产生的一种手段,也是公司发展使用趋势。
数据源与Event模型的重要性
1. 数据源很重要。
2. 用户行为事件模型很有效
理想的数据驱动——“流”
理想的数据驱动应该是怎样的?我们应该反向思考这一问题,先把数据源整好,在这个基础上提供强大的分析平台,让业务需求提出者能够自助式( Self-Service )地完成数据分析需求,从串行变成并行,完成需求从几天时间缩短到几分钟甚至几秒钟,这才是理想中的数据驱动
数据采集遵循法则
让数据驱动落地企业,数据采集的质量将决定数据分析的深度。
关于用户行为数据采集,在核心逻辑里面,企业要将前后端记录的行为事件、关键维度信息记录下来,例如与交易相关的核心数据信息与维度信息都应该被记录
“大”强调的是宏观的大。这不只需要海量数据,还要从系统的角度去考虑
“全”强调多种数据源。对于用户行为分析来说,不但要采集客户端数据,还要采集服务端日志、业务数据库,以及第三方服务器等数据,全面覆盖。
“细”要求把不同的维度都采集下来。
“时”则强调时效性。
科学的数据采集和埋点方式
无埋点具有以下优势。
1. 可视化展示宏观指标,满足基本数据分析需求。
2. 技术门槛低,使用与部署较简单。
3. 用户友好性强。
无埋点的劣势如下。
1. 无埋点只能采集到用户交互数据,且适合标准化的采集,自定义属性的采集需要代码埋点来辅助。
2. 无埋点兼容性有限。
3. 无埋点是前端数据采集方式之一,因此具有前端埋点的天然缺陷,如数据采集不全面、传输时效性较差、数据可靠性无法保障等问题
代码埋点又分为前端代码埋点和后端代码埋点
数据的准确性
数据不准确的原因有以下几种情况
1. 网络异常
2. 统计口径不同
3. 代码质量问题
提升数据准确性的具体策略主要包括以下几个方面
1. 采集关键行为,推荐后端埋点
2. 进行事件设计和明确统计口径,保证统计数据的质量。
3. 需要具有完善的元数据管理和埋点管理
4. 通过多维分析能力快速定位异常。
数据模型与建模
数据模型就是对现实世界抽象化的数据展示。数据模型在满足抽象的同时,越简单越好
多维事件模型
1.Event 实体简单来说, Event 描述了一个用户在某个时间点、某个地方以某种方式完成某个具体事情。
一个完整的 Event ,包含如下的几个关键因素
·Who :即参与这个事件的用户是谁
·When :即这个事件发生的实际时间
·Where :即事件发生的地点。
·How :即用户从事这个事件的方式
·What :描述用户所做的这个事件的具体内容
2.User 实体每个 User 实体对应一个真实的用户,行为事件分析涉及事件、维度和指标三个概念
行为事件分析法具有强大的筛选、分组和聚合能力,逻辑清晰且使用简单,已被广泛应用
漏斗分析
漏斗分析模型是企业实现精细化运营的重要分析模型,其精细化程度影响着营销管理的成败
漏斗分析模型的特点与价值
对于业务流程相对规范、周期较长、环节较多的流程分析,漏斗分析能够直观地发现和说明问题所在。
1. 企业可以监控用户在各个层级的转化情况
2. 多维度切分与呈现用户转化情774况,成单瓶颈无处遁形
3. 不同属性的用户群体漏斗比较,从差异角度窥视优化思路。
留存分析
留存分析模型特点与价值
1. 留存率是判断产品价值最重要的标准,揭示了产品保留用户的能力。
2. 宏观把握用户生命周期长度及定位产品可改善之处
分布分析
分布分析的定义分布分析是用户在特定指标下的频次、总额等的归类展现。
分布分析模型的特点与价值科学的分布分析模型支持按时间、次数、事件、指标进行用户条件筛选及数据统计
分布分析价值主要体现在以下几个方面
1. 挖掘用户分布规律,优化产品策略。
2. 运营并持续产品生命力,增加客户回访率
3. 快速识别核心用户群体,资源配置有的放矢。
用户路径
1. 可视化用户流,全面了解用户整体行为路径。
2. 定位影响转化的主次因素,产品设计的优化与改进有的放矢。
用户分群
用户分群具有以下价值。
1. 帮助企业打破数据孤岛并真实了解用户。
2. 定位营销目标群体,帮助企业实现精准、高效营销。
第一关键指标法
创业公司所从事的业务各不相同,但从发展阶段来说,大致可以分为 MVP 、增长和营收三个阶段
第一阶段: MVP 阶段
第二阶段:增长阶段
第三阶段:营收阶段
第一关键指标应该具备能够正确反映业务和阶段、简单易懂、具有指导性的特征,若企业同时对多指标进行跟进与优化,就会导致团队,专注度下降,让整个公司拧成一股绳朝着相同的指标前进才是最佳方式
海盗指标法
第一关键指标法定位了企业当前发展阶段的最重要问题,它关注全企业层面的运转健康,有利于让全公司形成合力聚焦同一目标。
0 条评论
下一页