新鲜出炉,Python 告诉你程序员最关注的技术竟然是……

论坛 期权论坛 期权     
CSDN   2019-6-16 04:34   2226   0



作者 | 灵动的艺术

责编 | 张红月
CSDN博客每年会产生上百万篇优质技术博文,大家都喜欢写哪些技术文章呢?本文作者基于18年入选博客之星活动的200名博主开始,透过他们的技术博文,分析大家最爱研究技术方向都有哪些。



CSDN 2018博客之星入选名单

闲话不多说,如果你关注过这个活动,那么你应该知道,CSDN2018博客之星评选活动参选人员入选博主名单可以在以下网址看到 :

  • https://bss.csdn.net/m/topic/blog_star2018
即:


时间尚未截止,有心怡的博主入选还没有投票的,赶紧去投上一票吧。
那么,截止到本文出炉为止,200位入选博主的原创/粉丝/喜欢/评论/等级/访问/积分/排名/获得选票 各指标信息如何呢?


由上面的表格我们可以得出的结论。
  • 目前获得票数最高的是徐刘根博主,并且获得选票高达2823票,人气相当火爆。
  • 目前文章最高总访问次数由china_jeffery博主拿下,并且访问次数高达11084501。
  • 目前文章总点赞次数由foruok博主拿下,并且已经获得了6466点赞。
  • 截止目前为止,其他各项指标,包括最佳排名(12),最佳收藏(2327),最多原创(13687181),最高积分(107000),最高等级(10),最多粉丝(22564),最多评论(7360)均由迂者-贺利坚博主砍下,这个成绩可是相当恐怖的。




得票前十名的博主




第二名与第一名的差距还是相当的大啊。大家要火热开启投票节奏啊!




最爱分享的技术


在投票之余,也可以多多关注一下大佬博主们的文章,看看这些博主专家们的研究方向,看看技术热点,作为我们2019年的学习方向。这里还是老规矩为大家贡献一张目前已入选博主的所有专栏相关课题研究方向热力图供大家参考。


由热力图可得知,目前大家最爱研究的方向有机器学习、android、Java、Python、设计模式、各种技术框架等。
接下来,我们再看一下,入选的200位博主,目前博客等级排名:


由此看来,报名入选博主在CSDN的等级分布还是比较均匀的,纵使你目前的博客等级不是很高,只有文章质量可以也还是有机会的。
接下来,我们再看一下,入选的200位博主目前已经获得的荣誉勋章情况如下:


即:
  • 6位作者已经拿过博客之星勋章,并且发起了再次冲击。
  • 3位作者拿到了1024超级勋章勋章,这意味着有超过3位报名作者的原创文章超过了1024篇,堪称超级写手。
  • 191位已经拿到博客专家,当然也有9位目前尚未拿到博客专家称号,说明没有博客专家称号也还是有机会的。



技术实现分析

知其然亦知其所以然,如果大家也有兴趣做类似的技术分析或者想要进一步深入技术发掘分析,我们再一起看看我们是怎么分析的。
数据挖掘
首先,我们知道 入选博主名单可以在 https://bss.csdn.net/m/topic/blog_star2018 网址看到,那么自然我们分析信息需要从这里出发。
想必你也猜到了,我们需要首先爬取所有的入选博主。例如,我们可以从这里拿到入选博主的基础信息。

  1. # -*- coding: utf-8 -*-
  2. import scrapy
  3. import json
  4. from tutorial.items import BlogStar2018Item
  5. class BlogStar2018Spider(scrapy.Spider):
  6.     name = 'blog_star2018'
  7.     allowed_domains = ['blog.csdn.net']
  8.     start_urls = ['https://bss.csdn.net/m/topic/blog_star2018']
  9.     def parse(self, response):
  10.         for user_info in response.xpath('//div[@class="user-info"]'):
  11.             info = {}
  12.             user_id = user_info.xpath('./div[@class="user-id"]/text()').extract_first()
  13.             user_addr = user_info.xpath('./div[@class="avatar"]/a/@href').extract_first()
  14.             user_name  = user_info.xpath('./div[@class="user-name"]/span/text()').extract_first()
  15.             user_number = user_info.xpath('./div[@class="user-number"]/span/em/text()').extract_first()
  16.             print(user_id,user_addr,user_name,user_number)
  17.             info['user_id'] = user_id
  18.             info['user_addr'] = user_addr
  19.             info['user_name'] = user_name
  20.             info['user_number'] = user_number
  21.             yield scrapy.Request(user_addr,
  22.                                  callback=lambda response, info=info: self.parse_blog_user_info(response,info))
复制代码
当然,只知道那些博主入选了本次评选是远远不够的,我们还需要知道包括但不限于 原创/粉丝/喜欢/评论/等级/访问/积分/排名/专栏/技术方向 等等信息。例如,我们可以利用分析工具抓取所有的入选博主的专栏信息。

  1.     def parse_blog_user_info(self,response,info):
  2.         item = BlogStar2018Item()
  3.         item['link'] = response.request.url
  4.         item['blogstar_vote'] = info
  5.         item['blog_title'] = response.xpath('//div[@class="title-box"]/h1[@class="title-blog"]/a/text()').extract_first()
  6.         item['description'] = response.xpath('//p[@class="description"]/text()').extract_first()
  7.         item['avatar_pic'] = response.xpath('//div[@class="profile-intro d-flex"]/div[@class="avatar-box d-flex justify-content-center flex-column"]/a/img/@src').extract_first()
  8.         for data in response.xpath('//div[@class="data-info d-flex item-tiling"]/dl[@class="text-center"]'):
  9.             data_key = data.xpath('./dt/a/text() | ./dt/text()').extract_first()
  10.             data_value = data.xpath('./@title').extract_first()
  11.             if data_key.find('原创') > -1:
  12.                 item['original'] = int(data_value)
  13.             elif data_key.find('粉丝') > -1:
  14.                 item['fans'] = int(data_value)
  15.             elif data_key.find('喜欢') > -1:
  16.                 item['star'] = int(data_value)
  17.             elif data_key.find('评论') > -1:
  18.                 item['comment'] = int(data_value)
  19.         for grade in response.xpath('//div[@class="grade-box clearfix"]/dl'):
  20.             grade_key = grade.xpath('./dt/text()').extract_first()
  21.             grade_value = grade.xpath('./dd/@title | ./dd/a/@title | ./@title').extract_first()
  22.             if grade_key.find('等级') > -1:
  23.                 item['level'] = int(grade_value.replace('级,点击查看等级说明',''))
  24.             elif grade_key.find('访问') > -1:
  25.                 item['visit'] = int(grade_value)
  26.             elif grade_key.find('积分') > -1:
  27.                 item['score'] = int(grade_value)
  28.             elif grade_key.find('排名') > -1:
  29.                 item['rank'] = int(grade_value)
  30.         #勋章
  31.         item['medal'] = response.xpath('//div[@class="badge-box d-flex"]/div[@class="icon-badge"]/@title').extract()
  32.         blog_expert = ''.join(response.xpath('//div[@class="user-info d-flex justify-content-center flex-column"]/p[@class="flag expert"]/text()').extract()).replace('\n','').replace(' ','')
  33.         if blog_expert and '' is not blog_expert :
  34.             item['medal'].append(blog_expert)
  35.         #博主专栏
  36.         colunms = []
  37.         for li in response.xpath('//div[@id="asideColumn"]/div[@class="aside-content"]/ul/li'):
  38.             colunms.append({'colunm_name':li.xpath('./div[@class="info"]/p/a/text()').extract_first()
  39.                                ,
  40.                             'colunm_count': li.xpath('./div[@class="info"]/div[@class="data"]/span/text()').extract_first().replace(' ', '').replace('篇',
  41.                                                                                                                  '')
  42.                                ,
  43.                             'colunm_read': li.xpath('./div[@class="info"]/div[@class="data"]/span/text()').extract()[-1].replace(' ', '')})
  44.         item['colunms'] = colunms
  45.         yield item
复制代码
当然,我们也可以继续抓取更多信息,这里就留给大家扩展了。
数据存储与分析
我们都知道,空有了数据来源,不能对数据做出存储与分析,等于什么都没做,所以,我们需要对我们的数据作出存储与分析。
数据存储
我们这里还是使用Elasticsearch 做数据存储,如果对Elasticsearch有兴趣,希望学习的话,可以到我的专栏查看,我这里就不展开了,我这里给大家分享一下,我这边建立的数据存储索引。
  1. PUT blogstar2018
  2. {
  3.   "mappings":{
  4.     "blogstar2018":{
  5.       "properties":{
  6.         "link": {
  7.           "type": "keyword",
  8.           "index": false
  9.         },
  10.         "blog_title":{
  11.           "type": "text",
  12.           "analyzer": "ik_smart",
  13.           "fielddata": true
  14.         },
  15.         "description":{
  16.           "type": "text",
  17.           "analyzer": "ik_smart",
  18.           "fielddata": true
  19.         },
  20.         "avatar_pic": {
  21.           "type": "keyword",
  22.           "index": false
  23.         },
  24.         "original":{
  25.           "type": "long"
  26.         },
  27.         "fans":{
  28.           "type": "long"
  29.         },
  30.         "star":{
  31.           "type": "long"
  32.         },
  33.         "comment":{
  34.           "type": "long"
  35.         },
  36.         "level":{
  37.           "type": "long"
  38.         },
  39.         "visit":{
  40.           "type": "long"
  41.         },
  42.         "score":{
  43.           "type": "long"
  44.         },
  45.         "rank":{
  46.           "type": "long"
  47.         },
  48.         "medal":{
  49.           "type": "text",
  50.           "analyzer": "ik_smart",
  51.           "fielddata": true
  52.         },
  53.         "colunms":{
  54.           "type": "nested",
  55.           "properties": {
  56.             "colunm_name":{
  57.               "type": "text",
  58.               "analyzer": "ik_smart",
  59.               "fielddata": true
  60.             },
  61.             "colunm_count":{
  62.               "type": "long"
  63.             },
  64.             "colunm_read":{
  65.               "type": "long"
  66.             }
  67.           }
  68.         },
  69.         "blogstar_vote":{
  70.           "type": "object",
  71.           "properties": {
  72.             "user_id":{
  73.               "type": "keyword"
  74.             },
  75.             "user_addr":{
  76.               "type": "keyword"
  77.             },
  78.             "user_name":{
  79.               "type": "keyword"
  80.             },
  81.             "user_number":{
  82.               "type": "long"
  83.             }
  84.           }
  85.         }
  86.       }
  87.     }
  88.   }
  89. }
复制代码
数据字段不是很多,我这里就不再做详细分析了,这里需要注意,我们的文本使用的大多都是中文,所以我们需要使用中文的分词起IK_SMART。
数据分析
当我们成功抓取到数据并存储以后呢,我们需要对我们的数据加以分析才能够发挥出它的作用。
  1. #! /usr/bin/env python3
  2. # -*- coding:utf-8 -*-
  3. import elasticsearch
  4. class BlogStar2018(object):
  5.     index = 'blogstar2018'
  6.     es = elasticsearch.Elasticsearch(['sc.es.com:80'])
  7.     @classmethod
  8.     def index_doc(cls,body):
  9.         cls.es.index(index=cls.index, doc_type=cls.index, body=body)
  10.     @classmethod
  11.     def match_all(cls):
  12.         body = {
  13.           "query": {
  14.             "match_all": {}
  15.           },
  16.           "size": 1000
  17.         }
  18.         try:
  19.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  20.         except Exception as e:
  21.             print('查询失败 ', str(e))
  22.             res = None
  23.         return res
  24.     @classmethod
  25.     def count_doc(cls):
  26.         try:
  27.             res = cls.es.count(index=cls.index, doc_type=cls.index,)
  28.         except Exception as e:
  29.             print('查询失败 ', str(e))
  30.             return 0
  31.         return res['count']
  32.     @classmethod
  33.     def stats_aggs(cls,field):
  34.         body = {
  35.           "size": 0,
  36.           "aggs": {
  37.             "stats_"+field: {
  38.               "stats": {
  39.                 "field": field
  40.               }
  41.             }
  42.           }
  43.         }
  44.         try:
  45.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  46.         except Exception as e:
  47.             print('查询失败 ', str(e))
  48.             res = None
  49.         return res
  50.     @classmethod
  51.     def term_aggs(cls,field,size=10):
  52.         body = {
  53.           "size": 0,
  54.           "aggs": {
  55.             "term_"+field: {
  56.               "terms": {
  57.                 "field": field,
  58.                 "size": size,
  59.                 "order": {
  60.                   "_key": "desc"
  61.                 }
  62.               }
  63.             }
  64.           }
  65.         }
  66.         try:
  67.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  68.         except Exception as e:
  69.             print('查询失败 ', str(e))
  70.             res = None
  71.         return res
  72.     @classmethod
  73.     def term_query(cls,field,value):
  74.         body = {
  75.           "query": {
  76.             "bool": {
  77.               "filter": {
  78.                 "term": {
  79.                   field: value
  80.                 }
  81.               }
  82.             }
  83.           }
  84.         }
  85.         try:
  86.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  87.         except Exception as e:
  88.             print('查询失败 ', str(e))
  89.             res = None
  90.         return res
  91.     @classmethod
  92.     def username_term_query(cls,field,value):
  93.         body = {
  94.           "query": {
  95.             "bool": {
  96.               "filter": {
  97.                 "term": {
  98.                   field: value
  99.                 }
  100.               }
  101.             }
  102.           },
  103.           "_source": ["blogstar_vote.user_name"]
  104.         }
  105.         try:
  106.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  107.         except Exception as e:
  108.             print('查询失败 ', str(e))
  109.             res = None
  110.         return res
  111.     @classmethod
  112.     def stat_colunm_name(cls):
  113.         body = {
  114.             "aggs": {
  115.                 "colunms": {
  116.                     "nested": {
  117.                         "path": "colunms"
  118.                     },
  119.                     "aggs": {
  120.                         "colunm_name": {
  121.                             "terms": {
  122.                                 "field": "colunms.colunm_name",
  123.                                 "size": 1000
  124.                             }
  125.                         }
  126.                     }
  127.                 }
  128.             }
  129.         }
  130.         try:
  131.             res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  132.         except Exception as e:
  133.             print('查询失败 ', str(e))
  134.             res = None
  135.         return res
复制代码
好了,关于本次项目分析源码,大家可以前往https://github.com/Jaysong2012/tutorial查看。
目前,CSDN博客之星活动即将接近尾声,官方这次除了设置丰厚博客之星奖品外,还特地设置了投票奖,只要参与投票就有机会赢超跑免费驾驶。投票奖品由王子出行(王子车库科技有限公司)提供,秉承“让租车比买车更划算!”的商业理念,专注于为广大出行需求用户提供高端车型订制出行服务。
点击阅读原文或者扫描下方海报二维码即可参与投票,赢取开超跑机会。



分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:65
帖子:240
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP