大数据毕设分享 基于大数据的K-means广告效果分析

## 基于大数据的K-means广告效果分析

项目运行效果:

毕业设计 基于大数据的K-means广告效果分析

项目获取:

https://gitee.com/sinonfin/algorithm-sharing

一、分析背景和目的

在大数据时代的背景下,广告主可以购买媒介变成直接购买用户,广告的精准投放对广告主、服务平台与潜在用户而言,在提升效率与商业效益方面,有了更迫切的需求,然而网络广告形式多样,很多广告投放系统相对缺乏针对性,使得网络广告精准度不够高,因此,对推广数据的研究是十分必要的。所有本次项目将从用户特征,投放时间,投放位置以及高点击率广告的特征等方面多维度进行数据分析,以提高用户点击率,实现淘宝展示广告精准投放,实现广告投放效果最大。

注意:本文是博主自主探索数据分析的记录和总结,有些方法和结论会存在错误,希望对你学习有帮助的话我很高兴,但是有问题的话希望给小弟批评和指正。

本文使用的数据工具为mysql 和 tableau

二、数据集

数据来源阿里天池,数据集

数据名称 说明 属性
raw_sample 原始样本骨架 用户id,广告id,时间,资源位,是否点击
ad_feature 广告的基本信息 广告id,广告计划id,类目id,品牌id
user_profile 用户的基本信息 用户id,年龄层,性别等
raw_behavior 用户的行为日志 用户id,行为类型,时间,商品类目id,品牌id

具体字段如图:

数据字段解释

三、分析框架和思路

对于衡量广告投放效果有三种模式:

在这里插入图片描述


对于cpc模式,点击率 = 点击量 / 展示量,可以使用点击量衡量投放效果,对于品牌来说,是根据点击量来进行付费的,点击率则可以体现广告的吸引力。

在这里插入图片描述


对于cpa模式,可以构建两个漏斗,即浏览—收藏—购买,浏览—加入购物车—购买,观察转换率可以衡量投放效果。

四、数据预处理

  1. 原数据集太大,为了方便分析,在raw_sample数据集中截取300w条数据
  2. 数据缺失值处理,如果出现缺失,将缺失的行删除即可(简单方法)
select count(user_id),count(adgroup_id),count(time_stamp),count(pid),count(noclk),count(clk)
from raw_sample;

在 user_profile 数据中 pvalue_level 字段缺失率高达53.1%,这里可以使用knn算法进行预测填充
(我比较菜,先直接忽略,后续学习python之后进行补充),而 new_user_class_level 字段的缺失率也有27.4%,可以使用众数进行补充。

  1. 数据重复值处理
select user_id,adgroup_id,time_stamp,pid,noclk,clk
from raw_sample
group by user_id,nonclk,clk
having count(user_id) >1;
  1. 数据异常值,比如有无超出时间范围
  2. 时间处理,将时间戳分解为日期和时间
alter table raw_sample add time_date varchar(20);
alter table raw_sample add time_hour varchar(20);
update raw_sample set time_date = left(from_unixtime(time_stamp),10);
update raw_sample set time_hour = right(from_unixtime(time_stamp),8);

五、数据分析

1. 广告投放渠道分析

select pid '资源位',(select COUNT(*) from raw_sample) '展示量',sum(clk) '点击量',sum(clk) / (select COUNT(*) from raw_sample) '点击率'
from raw_sample
group by pid;

在这里插入图片描述


结论:4300548_1007的广告投放效果会更好,而且广告吸引力也更大。

2. 广告投放时间分析

2.1 24h的投放效果

select left(time_hour,2) '小时',COUNT(*)            '展示量',sum(clk)            '点击量',sum(clk) / COUNT(*) '点击率'
from raw_sample
group by left(time_hour,2)
order by left(time_hour,2) ;

在这里插入图片描述


结论:

  1. 点击量基本符合人们的作息规律,而点击率在9-10点、13-14点和20-21点都比较高,这些时间基本就是人们工作前、中
  2. 奇怪的是在半夜1点和3点的时候点击率居然比较高,问题可能是展现量较低但点击量高,夜猫子刷淘宝的时候不容易被其他事情分散注意力,我觉得可以探索一下哪个品类的东西深得夜猫子浏览和点击,适当的进行实验性营销。

说干就干,首先查看整体展现量分布,发现将近90%的展现量在1000以内,所以我截取了时间在0-4点并且展现量大于500的商品类目,如下图确实有几个点击率很高的类目,不过他们的投入产出是否合理,这个还是看具体情况吧。

在这里插入图片描述

2.2 一周(8天)的投放效果

select right(time_date,2) '日期',COUNT(*)             '展示量',sum(clk)             '点击量',sum(clk) / COUNT(*)  '点击率'
from raw_sample
group by right(time_date,2)
order by right(time_date,2) ;

在这里插入图片描述

结论:2017年5月6号是星期六,周末的展现量较高比较符合作息规律,周二的点击率比较高,但是周末点击率为什么比较低?因为展现量高?周五的点击率最低,是什么原因造成,这些可能需要具体分析,可以进行与其他日期进行对比分析,对比不同日期24小时效果分析。

3、广告投放人群分析

3.1 用户性别分析

select if(final_gender_code = 1,'男','女') '性别',sum(clk) / (select COUNT(*) from raw_sample) '点击率'
from raw_sample,user_profile
where raw_sample.user_id = user_profile.userid
group by final_gender_code

在这里插入图片描述


结论:相比于男性,女性更容易被广告吸引,点击量更高。

3.2 用户消费档次分析

select case when pvalue_level =1 then '1'
            when pvalue_level =2 then '2'
            when pvalue_level =3 then '3'
            end '消费档次',user_profile
where raw_sample.user_id = user_profile.userid and
      pvalue_level is not null -- 缺失值未处理,直接排除
group by pvalue_level
order by pvalue_level;

在这里插入图片描述


结论:由于缺失值未处理,所以结论有问题,但不影响本文分析,消费档次为2的用户更容易被吸引。

3.3 用户购物深度分析

select case when shopping_level =1 then '浅层'
            when shopping_level =2 then '中层'
            when shopping_level =3 then '深层'
            end '购物深度',user_profile
where raw_sample.user_id = user_profile.userid
group by shopping_level
order by shopping_level;

在这里插入图片描述


结论:深度使用的用户更容易被广告吸引。

3.4 用户人群分析

select case when occupation =1 then '大学生'
            when occupation =0 then '非大学生'
            end '用户人群',user_profile
where raw_sample.user_id = user_profile.userid
group by occupation;

在这里插入图片描述


结论:非大学生群体更容易被广告吸引。

3.5 用户年龄分析

select age_level '年龄层次',user_profile
where raw_sample.user_id = user_profile.userid
group by age_level;

在这里插入图片描述


结论:年龄在3层的用户更容易被吸引

3.6 用户城市层次分析

select new_class_level '城市层次',user_profile
where raw_sample.user_id = user_profile.userid
group by new_class_level;

在这里插入图片描述


结论:在城市层次2的用户更容易被广告吸引。

4、用户行为指标衡量广告投放效果(CPA)

select btag,count(btag)
from behavior_log
group by btag
order by count(btag);

浏览—加入购物车—购买的漏斗模型:

在这里插入图片描述

用户在点击广告浏览后,加入购物车的转化率为2.31%,购买的转化率为1.24%,选择CPA模式衡量投放效果的话,必须提高用户的加入购物车、收藏和购买的转化率,如果转化率低的话,可能是因为用户进入商品详情界面时较难激发购物欲望,需要对落地页进行优化,才能提高转化率。

六、结论和建议

  1. 渠道:4300548_1007资源位的广告投放效果会更好;
  2. 时间:在9-10点、13-14点和20-21点的时候点击率会更高,周二的点击率更高;
  3. 用户:女性、中档消费、深度购物、非大学生、年龄3档、城市层级2层的用户投放效果会更好。

本文只分析了全体的投放效果,正常需要结合品牌、商品类目和价格等进行分析,也可以结合转化率一起分析。

项目运行效果:

毕业设计 基于大数据的K-means广告效果分析

项目获取:

https://gitee.com/sinonfin/algorithm-sharing

原文地址:https://blog.csdn.net/mabile123444/article/details/135951204

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读5.3k次,点赞10次,收藏39次。本章详细写了mysql的安装,环境的搭建以及安装时常见的问题和解决办法。_mysql安装及配置超详细教程
文章浏览阅读1.8k次,点赞50次,收藏31次。本篇文章讲解Spark编程基础这门课程的期末大作业,主要围绕Hadoop基本操作、RDD编程、SparkSQL和SparkStreaming编程展开。_直接将第4题的计算结果保存到/user/root/lisi目录中lisipi文件里。
文章浏览阅读7.8k次,点赞9次,收藏34次。ES查询常用语法目录1. ElasticSearch之查询返回结果各字段含义2. match 查询3. term查询4. terms 查询5. range 范围6. 布尔查询6.1 filter加快查询效率的原因7. boosting query(提高查询)8. dis_max(最佳匹配查询)9. 分页10. 聚合查询【内含实际的demo】_es查询语法
文章浏览阅读928次,点赞27次,收藏18次。
文章浏览阅读1.1k次,点赞24次,收藏24次。作用描述分布式协调和一致性协调多个节点的活动,确保一致性和顺序。实现一致性、领导选举、集群管理等功能,确保系统的稳定和可靠性。高可用性和容错性Zookeeper是高可用的分布式系统,通过多个节点提供服务,容忍节点故障并自动进行主从切换。作为其他分布式系统的高可用组件,提供稳定的分布式协调和管理服务,保证系统的连续可用性。配置管理和动态更新作为配置中心,集中管理和分发配置信息。通过订阅机制,实现对配置的动态更新,以适应系统的变化和需求的变化。分布式锁和并发控制。
文章浏览阅读1.5k次,点赞26次,收藏29次。为贯彻执行集团数字化转型的需要,该知识库将公示集团组织内各产研团队不同角色成员的职务“职级”岗位的评定标准;
文章浏览阅读1.2k次,点赞26次,收藏28次。在安装Hadoop之前,需要进行以下准备工作:确认操作系统:Hadoop可以运行在多种操作系统上,包括Linux、Windows和Mac OS等。选择适合你的操作系统,并确保操作系统版本符合Hadoop的要求。安装Java环境:Hadoop是基于Java开发的,因此需要先安装和配置Java环境。确保已经安装了符合Hadoop版本要求的Java Development Kit (JDK),并设置好JAVA_HOME环境变量。确认硬件要求:Hadoop是一个分布式系统,因此需要多台计算机组成集群。
文章浏览阅读974次,点赞19次,收藏24次。# 基于大数据的K-means广告效果分析毕业设计 基于大数据的K-means广告效果分析。
文章浏览阅读1.7k次,点赞6次,收藏10次。Hadoop入门理论
文章浏览阅读1.3w次,点赞28次,收藏232次。通过博客和文献调研整理的一些农业病虫害数据集与算法。_病虫害数据集
文章浏览阅读699次,点赞22次,收藏7次。ZooKeeper使用的是Zab(ZooKeeper Atomic Broadcast)协议,其选举过程基于一种名为Fast Leader Election(FLE)的算法进行。:每个参与选举的ZooKeeper服务器称为一个“Follower”或“Candidate”,它们都有一个唯一的标识ID(通常是一个整数),并且都知道集群中其他服务器的ID。总之,ZooKeeper的选举机制确保了在任何时刻集群中只有一个Leader存在,并通过过半原则保证了即使部分服务器宕机也能维持高可用性和一致性。
文章浏览阅读10w+次,点赞62次,收藏73次。informatica 9.x是一款好用且功能强大的数据集成平台,主要进行各类数据库的管理操作,是使用相当广泛的一款ETL工具(注: ETL就是用来描述将数据从源端经过抽取(extract)、转换(transform)、加载(load)到目的端的过程)。本文主要为大家图文详细介绍Windows10下informatica powercenter 9.6.1安装与配置步骤。文章到这里就结束了,本人是在虚拟机中装了一套win10然后在此基础上测试安装的这些软件,因为工作学习要分开嘛哈哈哈。!!!!!_informatica客户端安装教程
文章浏览阅读7.8w次,点赞245次,收藏2.9k次。111个Python数据分析实战项目,代码已跑通,数据可下载_python数据分析项目案例
文章浏览阅读1.9k次,点赞61次,收藏64次。TDH企业级一站式大数据基础平台致力于帮助企业更全面、更便捷、更智能、更安全的加速数字化转型。通过数年时间的打磨创新,已帮助数千家行业客户利用大数据平台构建核心商业系统,加速商业创新。为了让大数据技术得到更广泛的使用与应用从而创造更高的价值,依托于TDH强大的技术底座,星环科技推出TDH社区版(Transwarp Data Hub Community Edition)版本,致力于为企业用户、高校师生、科研机构以及其他专业开发人员提供更轻量、更简单、更易用的数据分析开发环境,轻松应对各类人员数据分析需求。_星环tdh没有hive
文章浏览阅读836次,点赞21次,收藏19次。
文章浏览阅读1k次,点赞21次,收藏15次。主要介绍ETL相关工作的一些概念和需求点
文章浏览阅读1.4k次。本文以Android、java为开发技术,实现了一个基于Android的博物馆线上导览系统 app。基于Android的博物馆线上导览系统 app的主要使用者分为管理员和用户,app端:首页、菜谱信息、甜品信息、交流论坛、我的,管理员:首页、个人中心、用户管理、菜谱信息管理、菜谱分类管理、甜品信息管理、甜品分类管理、宣传广告管理、交流论坛、系统管理等功能。通过这些功能模块的设计,基本上实现了整个博物馆线上导览的过程。
文章浏览阅读897次,点赞19次,收藏26次。1.背景介绍在当今的数字时代,数据已经成为企业和组织中最宝贵的资源之一。随着互联网、移动互联网和物联网等技术的发展,数据的产生和收集速度也急剧增加。这些数据包括结构化数据(如数据库、 spreadsheet 等)和非结构化数据(如文本、图像、音频、视频等)。这些数据为企业和组织提供了更多的信息和见解,从而帮助他们做出更明智的决策。业务智能(Business Intelligence,BI)...
文章浏览阅读932次,点赞22次,收藏16次。也就是说,一个类应该对自己需要耦合或调用的类知道的最少,类与类之间的关系越密切,耦合度越大,那么类的变化对其耦合的类的影响也会越大,这也是我们面向对象设计的核心原则:低耦合,高内聚。优秀的架构和产品都是一步一步迭代出来的,用户量的不断增大,业务的扩展进行不断地迭代升级,最终演化成优秀的架构。其根本思想是强调了类的松耦合,类之间的耦合越弱,越有利于复用,一个处在弱耦合的类被修改,不会波及有关系的类。缓存,从操作系统到浏览器,从数据库到消息队列,从应用软件到操作系统,从操作系统到CPU,无处不在。
文章浏览阅读937次,点赞22次,收藏23次。大数据可视化是关于数据视觉表现形式的科学技术研究[9],将数据转换为图形或图像在屏幕上显示出来,并进行各种交互处理的理论、方法和技术。将数据直观地展现出来,以帮助人们理解数据,同时找出包含在海量数据中的规律或者信息,更多的为态势监控和综合决策服务。数据可视化是大数据生态链的最后一公里,也是用户最直接感知数据的环节。数据可视化系统并不是为了展示用户的已知的数据之间的规律,而是为了帮助用户通过认知数据,有新的发现,发现这些数据所反映的实质。大数据可视化的实施是一系列数据的转换过程。