1、可以到比较大第三方统计网站去看看,打开站长之家来查看,在SEO综合查询输入框输入自己的域名点击查看分析按钮
2、点击查看分析按钮之后往下拉就可以看到网站的一些基本信息,域名年龄、备案信息、安全认证,再往下就可以看到通过浏览器的到网站的大致访客统计,还有网页的收录情况
我们在网站上进行浏览操作时,服务器端是可以收集到访客的一些基础信息的,这些信息主要是一些非敏感类信息,比如:
访客的电脑系统版本、浏览器分辨率;
访客的IP,通过IP可以定位访问的位置;
也可以获取到访客的GPS地理位置信息;
访问的页面及时长等。
像用户敏感的信息,比如:联系方式、手机号码这种,默认情况下服务器端是无法收集的。如果真要收集,那就必须要求用户注册登录你的网站,这样才能记录这些敏感信息。
像51la、百度统计等,都只能收集访问的基础行为信息来做用户画像的,它们也是无法获取访问联系方式的。
我是科技领域创作者,十年互联网从业经验,欢迎关注我了解更多科技知识!如果大家有不同看法,欢迎在下方评论区发表自己的观点 ~
一般来说是不可能的,访客系统收集的都是浏览器信息和IP信息,从IP信息可以得到地理位置,要想获得用户极为隐私的信息是没办法的。51la网站统计这种平台可以也是不能实现的。
但也不是绝对不可能。
1.和运营商合作,前提是使用手机流量登录。比如你用流量,可以直接登录10086,它能够直接获取到你的手机号。只要是你和运营商合作,你也可以获取到用户的手机号码。但这条路径现在一般不开发了。
2.参与广告联盟和大数据共享。尤其是手机用户,利用手机APP可以精准定位到用户,然后结合用户名,cookies等,即使你用PC浏览网站也能定位到你。众多厂商共享用户数据,是可以实现用户精准定位的。这种一般用在广告联盟中。
比如你在很多网站的广告位看见了你曾经搜索或者购买过的产品信息,就是因为你访问baidu的时候,baidu就会给你编个号,比如9527,这编号就存在cookie里。当你打开人人影视的网站的时候,baidu的程序就知道9527来了,他最近对什么感兴趣呢?查一下,哦,最近你在baidu搜过xxxx,好的,查查看有没有类似的广告,好的,找到了,展示广告。当你点击广告后,人人影视就可以从baidu那里收到一笔钱了,baidu就可以从广告主那里收到一笔钱。
有了cookies共享,就能干很多事情了。
厂商之间通过这种协作,实现了用户画像,再加上手机APP的加持(手机上的权限更大),就能非常精准定位了,包括你的手机号码和GPS物理位置。
3.第三方服务,比如 同盾 的生物探针,可以跟踪判定某个用户的操作习惯等,判断用户是否是羊毛党,一般用在风控系统里。
所以,统计用户的访问设备网络环境信息、联系方式等,理论上是不可能实现的,然而现实中,几大厂商之间却会共享用户数据,从而实现这个功能。
1. 大数据处理之一:采集
大数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库MySQL和Oracle等来存储每一笔事务数据,除此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集。
在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片的确是需要深入的思考和设计。
2. 大数据处理之二:导入/预处理
虽然采集端本身会有很多数据库,但是如果要对这些海量数据进行有效的分析,还是应该将这
些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使用用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。
导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。
3. 大数据处理之三:统计/分析
统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通
的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC的GreenPlum、Oracle的Exadata,以及基于MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。
统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是I/O会有极大的占用。
4. 大数据处理之四:挖掘
与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预测(Predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的Kmeans、用于统计学习的SVM和用于分类的NaiveBayes,主要使用的工具有Hadoop的Mahout等。该过程的特点和挑战主要是用于挖掘的算法很复杂,并且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。
评论列表 (0条)