1. 背景

这段时间项目比较忙,所以本qiang~有些耽误了学习,不过也算是百忙之中,抽取时间来支撑一个读者的需求,即爬取一些财经网站的新闻并自动聚合。

该读者看了之前的《AI资讯的自动聚合及报告生成》文章后,想要将这一套流程嵌套在财经领域,因此满打满算耗费了2-3天时间,来完成了该需求。

注意:爬虫不是本人的强项,只是一丢丢兴趣而已; 其次,本篇文章主要是用于个人学习,客官们请勿直接商业使用。

2. 面临的难点

1. 爬虫框架选取: 采用之前现学现用的crawl4ai作为基础框架,使用其高阶技能来逼近模拟人访问浏览器,因为网站都存在反爬机制,如鉴权、cookie等;

2. 外网新闻: 需要kexue上网;

3. 新闻内容解析: 此处耗费的工作量最多,并不是html的页面解析有多难,主要是动态页面加载如何集成crawl4ai来实现,且每个新闻网站五花八门。

3. 数据源

数据源

url

备注

财lian社

https://www.cls.cn/depth?id=1000

https://www.cls.cn/depth?id=1003

https://www.cls.cn/depth?id=1007

1000: 头条,

1003: A股,

1007: 环球

凤huang网

https://finance.ifeng.com/shanklist/1-64-/

新lang

https://finance.sina.com.cn/roll/#pageid=384&lid=2519&k=&num=50&page=1

https://finance.sina.com.cn/roll/#pageid=384&lid=2672&k=&num=50&page=1

2519: 财经

2672: 美股

环qiu时报

https://finance.huanqiu.com

zaobao

https://www.zaobao.com/finance/china

https://www.zaobao.com/finance/world

国内及世界

fox

https://www.foxnews.com/category/us/economy

https://www.foxnews.com//world/global-economy

美国及世界

cnn

https://edition.cnn.com/business

https://edition.cnn.com/business/china

国内及世界

reuters

https://www.reuters.com/business

4. 部分源码

为了减少风险,本qiang~只列出财lian社网页的解析代码,读者如想进一步交流沟通,可私信联系。

代码片段解析:

1. schema是以json格式叠加css样式的策略,crawl4ai基于schema可以实现特定元素的结构化解析

2. js_commands是js代码,主要用于模拟浏览新闻时的下翻页

import asyncio
from crawl4ai import AsyncWebCrawler
from crawl4ai.extraction_strategy import JsonCssExtractionStrategy
import json
from typing import Dict, Any, Union, List
import os
import datetime
import re
import hashlib def md5(text):
m = hashlib.md5()
m.update(text.encode('utf-8'))
return m.hexdigest() def get_datas(file_path, json_flag=True, all_flag=False, mode='r'):
"""读取文本文件"""
results = [] with open(file_path, mode, encoding='utf-8') as f:
for line in f.readlines():
if json_flag:
results.append(json.loads(line))
else:
results.append(line.strip())
if all_flag:
if json_flag:
return json.loads(''.join(results))
else:
return '\n'.join(results)
return results def save_datas(file_path, datas, json_flag=True, all_flag=False, with_indent=False, mode='w'):
"""保存文本文件"""
with open(file_path, mode, encoding='utf-8') as f:
if all_flag:
if json_flag:
f.write(json.dumps(datas, ensure_ascii=False, indent= 4 if with_indent else None))
else:
f.write(''.join(datas))
else:
for data in datas:
if json_flag:
f.write(json.dumps(data, ensure_ascii=False) + '\n')
else:
f.write(data + '\n') class AbstractAICrawler(): def __init__(self) -> None:
pass
def crawl():
raise NotImplementedError() class AINewsCrawler(AbstractAICrawler):
def __init__(self, domain) -> None:
super().__init__()
self.domain = domain
self.file_path = f'data/{self.domain}.json'
self.history = self.init() def init(self):
if not os.path.exists(self.file_path):
return {}
return {ele['id']: ele for ele in get_datas(self.file_path)} def save(self, datas: Union[List, Dict]):
if isinstance(datas, dict):
datas = [datas]
self.history.update({ele['id']: ele for ele in datas})
save_datas(self.file_path, datas=list(self.history.values())) async def crawl(self, url:str,
schema: Dict[str, Any]=None,
always_by_pass_cache=True,
bypass_cache=True,
headless=True,
verbose=False,
magic=True,
page_timeout=15000,
delay_before_return_html=2.0,
wait_for='',
js_code=None,
js_only=False,
screenshot=False,
headers={}): extraction_strategy = JsonCssExtractionStrategy(schema, verbose=verbose) if schema else None async with AsyncWebCrawler(verbose=verbose,
headless=headless,
always_by_pass_cache=always_by_pass_cache, headers=headers) as crawler:
result = await crawler.arun(
url=url,
extraction_strategy=extraction_strategy,
bypass_cache=bypass_cache,
page_timeout=page_timeout,
delay_before_return_html=delay_before_return_html,
wait_for=wait_for,
js_code=js_code,
magic=magic,
remove_overlay_elements=True,
process_iframes=True,
exclude_external_links=True,
js_only=js_only,
screenshot=screenshot
) assert result.success, "Failed to crawl the page"
if schema:
res = json.loads(result.extracted_content)
if screenshot:
return res, result.screenshot
return res
return result.html class FinanceNewsCrawler(AINewsCrawler): def __init__(self, domain='') -> None:
super().__init__(domain) def save(self, datas: Union[List, Dict]):
if isinstance(datas, dict):
datas = [datas]
self.history.update({ele['id']: ele for ele in datas})
save_datas(self.file_path, datas=datas, mode='a') async def get_last_day_data(self):
last_day = (datetime.date.today() - datetime.timedelta(days=1)).strftime('%Y-%m-%d')
datas = self.init()
return [v for v in datas.values() if last_day in v['date']] class CLSCrawler(FinanceNewsCrawler):
"""
财某社新闻抓取
"""
def __init__(self) -> None:
self.domain = 'cls'
super().__init__(self.domain)
self.url = 'https://www.cls.cn' async def crawl_url_list(self, url='https://www.cls.cn/depth?id=1000'):
schema = {
'name': 'caijingwang toutiao page crawler',
'baseSelector': 'div.f-l.content-left',
'fields': [
{
'name': 'top_titles',
'selector': 'div.depth-top-article-list',
'type': 'nested_list',
'fields': [
{'name': 'href', 'type': 'attribute', 'attribute':'href', 'selector': 'a[href]'}
]
},
{
'name': 'sec_titles',
'selector': 'div.depth-top-article-list li.f-l',
'type': 'nested_list',
'fields': [
{'name': 'href', 'type': 'attribute', 'attribute':'href', 'selector': 'a[href]'}
]
},
{
'name': 'bottom_titles',
'selector': 'div.b-t-1 div.clearfix',
'type': 'nested_list',
'fields': [
{'name': 'href', 'type': 'attribute', 'attribute':'href', 'selector': 'a[href]'}
]
}
]
} js_commands = [
"""
(async () => {{ await new Promise(resolve => setTimeout(resolve, 500)); const targetItemCount = 100; let currentItemCount = document.querySelectorAll('div.b-t-1 div.clearfix a.f-w-b').length;
let loadMoreButton = document.querySelector('.list-more-button.more-button'); while (currentItemCount < targetItemCount) {{
window.scrollTo(0, document.body.scrollHeight); await new Promise(resolve => setTimeout(resolve, 1000)); if (loadMoreButton) {
loadMoreButton.click();
} else {
console.log('没有找到加载更多按钮');
break;
} await new Promise(resolve => setTimeout(resolve, 1000)); currentItemCount = document.querySelectorAll('div.b-t-1 div.clearfix a.f-w-b').length; loadMoreButton = document.querySelector('.list-more-button.more-button');
}}
console.log(`已加载 ${currentItemCount} 个item`);
return currentItemCount;
}})();
"""
]
wait_for = '' results = {} menu_dict = {
'1000': '头条',
'1003': 'A股',
'1007': '环球'
}
for k, v in menu_dict.items():
url = f'https://www.cls.cn/depth?id={k}'
try:
links = await super().crawl(url, schema, always_by_pass_cache=True, bypass_cache=True, js_code=js_commands, wait_for=wait_for, js_only=False)
except Exception as e:
print(f'error {url}')
links = []
if links:
links = [ele['href'] for eles in links[0].values() for ele in eles if 'href' in ele]
links = sorted(list(set(links)), key=lambda x: x)
results.update({f'{self.url}{ele}': v for ele in links})
return results async def crawl_newsletter(self, url, category):
schema = {
'name': '财联社新闻详情页',
'baseSelector': 'div.f-l.content-left',
'fields': [
{
'name': 'title',
'selector': 'span.detail-title-content',
'type': 'text'
},
{
'name': 'time',
'selector': 'div.m-r-10',
'type': 'text'
},
{
'name': 'abstract',
'selector': 'pre.detail-brief',
'type': 'text',
'fields': [
{'name': 'href', 'type': 'attribute', 'attribute':'href', 'selector': 'a[href]'}
]
},
{
'name': 'contents',
'selector': 'div.detail-content p',
'type': 'list',
'fields': [
{'name': 'content', 'type': 'text'}
]
},
{
'name': 'read_number',
'selector': 'div.detail-option-readnumber',
'type': 'text'
}
]
} wait_for = 'div.detail-content'
try:
results = await super().crawl(url, schema, always_by_pass_cache=True, bypass_cache=True, wait_for=wait_for)
result = results[0]
except Exception as e:
print(f'crawler error: {url}')
return {} return {
'title': result['title'],
'abstract': result['abstract'],
'date': result['time'],
'link': url,
'content': '\n'.join([ele['content'] for ele in result['contents'] if 'content' in ele and ele['content']]),
'id': md5(url),
'type': category,
'read_number': await self.get_first_float_number(result['read_number'], r'[-+]?\d*\.\d+|\d+'),
'time': datetime.datetime.now().strftime('%Y-%m-%d')
} async def get_first_float_number(self, text, pattern):
match = re.search(pattern, text)
if match:
return round(float(match.group()), 4)
return 0 async def crawl(self):
link_2_category = await self.crawl_url_list()
for link, category in link_2_category.items():
_id = md5(link)
if _id in self.history:
continue
news = await self.crawl_newsletter(link, category)
if news:
self.save(news)
return await self.get_last_day_data() if __name__ == '__main__':
asyncio.run(CLSCrawler().crawl())

5. 总结

一句话足矣~

开发了一款新闻资讯的自动聚合的工具,基于crawl4ai框架实现。

有问题可以私信或留言沟通!

6. 参考

(1) Crawl4ai: https://github.com/unclecode/crawl4ai

LLM应用实战-财经新闻自动聚合的更多相关文章

  1. CSS实战 模拟 新闻列表

    总结:所使用的知识点:1.padding应用以及box-sizing: border-box自动内减撑大的盒子 2.ul>li 的使用,去除黑圆圈 3.a标签的使用,去除默认样式<下划线& ...

  2. PHP读取sphinx 搜索返回结果完整实战实例

    PHP读取sphinx 搜索返回结果完整实战实例 网上搜索N久都没有一个正在读取返回sphinx结果的实例,都是到了matches那里就直接var_dump或者print_r了,没有读取到字段的例子, ...

  3. 一个使用fasttext训练的新闻文本分类器/模型

    fastext是什么? Facebook AI Research Lab 发布的一个用于快速进行文本分类和单词表示的库.优点是很快,可以进行分钟级训练,这意味着你可以在几分钟时间内就训练好一个分类模型 ...

  4. 基于TF-IDF的新闻标签提取

    基于TF-IDF的新闻标签提取 1. 新闻标签 新闻标签是一条新闻的关键字,可以由编辑上传,或者通过机器提取.新闻标签的提取主要用于推荐系统中,所以,提取的准确性影响推荐系统的有效性.同时,对于将标签 ...

  5. 读书笔记:《HTML5开发手册》--HTML5新的结构元素

    读书笔记:<HTML5开发手册> (HTML5 Developer's CookBook) 虽然从事前端开发已有很长一段时间,对HTML5标签也有使用,但在语义化上面理解还不够清晰.之前在 ...

  6. 读书笔记:《HTML5开发手册》

    一.HTML5中新的结构元素 1. HTML5初始文件 1.1.doctype 在之前,doctype的声明是这样的: <!DOCTYPE HTML PUBLIC "-//W3C//D ...

  7. [JS,NodeJs]个人网站效果代码集合

    上次发的个人网站效果代码集合: 代码集合: 1.彩色文字墙[鼠标涟漪痕迹] 2.彩色旋转圆环 [模仿http://www.moma.org/interactives/exhibitions/2012/ ...

  8. 阿里商业评论 | 互联网POI数据及其在营销中的应用

    阿里商业评论 | 互联网POI数据及其在营销中的应用 时间 2014-11-05 10:40:50  阿里研究院 原文  http://www.aliresearch.com/index.php?m- ...

  9. 仿windows phone风格主界面

    使用了ZAKER到最新版本,其主界面采用windows phone的风格,感觉还蛮好看的,挺喜欢的,就模仿写了一下,实现到界面截图如下: 第一版面: 第二版面: 在实现了它到九宫格菜单,还实现了背景图 ...

  10. SQL语法集锦一:显示每个类别最新更新的数据

    本文转载http://www.cnblogs.com/lxblog/archive/2012/09/28/2707504.html (1)显示每个类别最新更新的数据 在项目中经常遇到求每个类别最新显示 ...

随机推荐

  1. MyBatisPlus——代码生成器

    代码生成器 快速生成各项代码 步骤 创建Generator类,并创建main方法 创建代码生成器 AutoGenerator autoGenerator = new AutoGenerator(); ...

  2. dfs与贪心算法——洛谷5194

    问题描述: 有n个砝码,将砝码从大到小排列,从第三个砝码开始,所有砝码均大于其前两个砝码之和,问怎样的砝码组合才可以组合出不大于c的最大重量,输出该重量 输入: 第一行输入两个个整数N,c,代表有N个 ...

  3. 使用阿里云 SpringBoot 仓库初始化项目

    本文基于:https://www.bilibili.com/video/BV15b4y1a7yG?p=5&vd_source=cf8900ba33d057d422c588abe5d5290d ...

  4. kdump

    Kdump简单介绍 什么是Kdump? Kdump是在系统崩溃.死锁或死机时用来转储内存运行参数的一个工具和服务,是一种新的crash dump捕获机制,用来捕获kernel crash(内核崩溃)的 ...

  5. 2022年10月中国数据库排行榜:达梦冲刺IPO热度不减,PolarDB立足创新夺锦才

    秋风萧瑟,洪波涌起. 2022年10月的 墨天轮中国数据库流行度排行榜 火热出炉,本月共有245个数据库参与排名,相比上月新增七个数据库,本月排行榜前十名变动较大:达梦反超openGauss重摘探花: ...

  6. 介绍一下 websocket

    一般的http请求都是短连接,而webpack的使用可以建立长连接 : 什么是 websocket websocket 是一种网络通信协议,是 HTML5 开始提供的一种在单个 TCP 连接上进行全双 ...

  7. kotlin类与对象——>可见性修饰符

    1.在 Kotlin 中有这四个可⻅性修饰符:private .protected .internal 和public .如果没有显式指定修饰符的话,默认可⻅性是 public . 2.包,函数.属性 ...

  8. 快速部署mysql并开启binlog

    curl -fsSL https://get.docker.com | bash yum -y install docker-ce sudo systemctl start docker sudo s ...

  9. 【2024】所有人都能看懂的 Win 11 安装/重装教程,跟着我一遍包成功

    无论你因为系统坏掉想重装一下 Windows,或者只是想升级一下 Windows 都可以.虽然标题写的是 Win 11,不过实际上对于任何 Windows 系统都适用,不过现在 Win 11 已经相当 ...

  10. css动画效果(边框流光闪烁阴影效果)

    1.整体效果 https://mmbiz.qpic.cn/sz_mmbiz_gif/EGZdlrTDJa7odDQYuaatklJUMc5anU10PWLAt14rNnNUD6oHJG9U63fc0y ...