实验8 Python爬虫项目部署与kafka消息队列

【实验内容】

本实验主要介绍关于在Linux云环境下部署和运行爬虫项目并使用kafka发送消息队列。

【实验目的】

1、学会在云环境中部署爬虫项目

2、掌握Kafka消息队列的基本使用

3、实现爬虫与消息队列的集成

【实验步骤】

步骤1 在Linux上部署爬虫项目

步骤2 Kafka消息队列的基本使用

步骤3 在python中向kafka推送消息

 

步骤1:在云环境中部署爬虫项目

(1) 使用pycharm部署爬虫项目

在pycharm中点击如上图所示的Configuration

*******************************************************************************

********************************************************************************

点击上图所示按钮进入云服务器的配置。

***************************************************************************

输入域名、用户名、地址后点击Test Connection测试连接

**********************************************************************************

连接成功后,点击Mappings配置路径映射,local path 表示window 上爬虫项目的路径,Deployment path 是Linux服务器上项目存放的路径。

***************************************************************************************

右击项目根目录,选择将整个项目上传至你所连接的服务器。如下图所示

*********************************************************************************

(2) 数据库迁移

*********************************************************************

使用navicat将本地数据库转存为sql文件,保存结构和数据。然后连接上我们的linux服务器,运行sql文件(如下图所示)即可完成数据表和数据内容的迁移。

*********************************************************************

(3) python虚拟环境 Python网络爬虫实战实验8 Python爬虫项目部署与kafka消息队列

(4) 项目运行

Python网络爬虫实战实验8 Python爬虫项目部署与kafka消息队列

/*============================================================

  • */

    `2>&1`: /*

  • */

    -`&`: /*

  • */

    **********************************************************************************

    项目运行成功如上图所示,当到达定时点时候,就会开始自动运行脚本程序进行数据采集。

     

    步骤2 Kafka消息队列的基本使用

    Kafka 是一个分布式流处理平台,通常被用于构建实时数据管道和流应用程序。它提供了高吞吐量、容错性和可伸缩性的特性。

    创建一个主题(Topic):在 Kafka 中,数据被组织成主题。主题是消息的分类,生产者将消息发送到主题,而消费者从主题订阅消息。

    /*=============================================================================================================================================================*/

    /*==============================================================================================================================================================*/

    /*===============================================================================================================================================================================*/

    消息的序列化和反序列化:默认情况下,Kafka 接收和发送的消息是字节数组。在实际应用中,你需要使用序列化器将消息转换为特定的格式。常见的选择包括 JSON、Avro 等。在生产者和消费者配置中,你可以指定相应的序列化和反序列化器。

    Kafka 集群:在生产环境中,通常会运行多个 Kafka 服务器组成集群,以提高容错性和可伸缩性。确保生产者和消费者配置中指定了所有 Kafka 服务器的地址。

    ***************************************************************************

     

    步骤3 在python中向kafka推送消息

    (1) 安装包

    pip install confluent_kafka

    (2) 发送消息

    ****************************************************************************

    **********************************************************************

    根据环境变量 ‘django_env’ 的值选择 Kafka 服务器地址,如果 ‘django_env’ 的值为’production’,则使用 192.168.0.151:9092否则,使用 192.168.0.228:9092

    /*

=========================================================================================================================*/

***************************************************************************

在数据采集时候,通过调用send_kafka_message方法,向yunnan_zhong这个主题推送消息

*********************************************************************************

在服务器上可以接收到上图所示的消息示例。

相关新闻

联系我们

027-87870986

在线咨询:点击这里给我发消息

邮件:931234110@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息