python爬虫,集群是如何实现节点的发现和管理

1、 C安装Zookeeper 由于主要测试Ignite,这里仅仅简单安装一个zookeeper节点,下载zookeeper解压后,直接执行zookeeper目录下的bin/zkServer.sh start命令则成功启动zookeeper。查看Ubuntu系统C的IP地址为192.168.1.104,zookeeper默认端口为12181。注意:这里VMware虚拟机的网络适配器一定要选择桥接模式,否则A机...
python爬虫,集群是如何实现节点的发现和管理
Ignite集群管理——基于Zookeeper的节点发现
Ignite支持基于组播,静态IP,Zookeeper,JDBC等方式发现节点,本文主要介绍基于Zookeeper的节点发现。
环境准备,两台笔记本电脑A,B。A笔记本上使用VMware虚拟机安装了Ubuntu系统C。
1、 C安装Zookeeper
由于主要测试Ignite,这里仅仅简单安装一个zookeeper节点,下载zookeeper解压后,直接执行zookeeper目录下的bin/zkServer.sh start命令则成功启动zookeeper。
查看Ubuntu系统C的IP地址为192.168.1.104,zookeeper默认端口为12181。

注意:这里VMware虚拟机的网络适配器一定要选择桥接模式,否则A机器无法访问虚拟机。

2、 A系统运行Ignite节点1;
代码中加粗的部分便是Ignite注册代码,十分简单。

package com.coshaho.learn.ignite.cluster;import org.apache.ignite.Ignite;import org.apache.ignite.IgniteCache;import org.apache.ignite.Ignition;import org.apache.ignite.cache.CacheMode;import org.apache.ignite.configuration.CacheConfiguration;import org.apache.ignite.configuration.IgniteConfiguration;import org.apache.ignite.spi.discovery.tcp.TcpDiscoverySpi;import org.apache.ignite.spi.discovery.tcp.ipfinder.zk.TcpDiscoveryZookeeperIpFinder;/** * * IgniteCluster01.java Create on 2017年6月3日 下午10:52:38 * * 类功能说明: 基于zookeeper集群 * * Copyright: Copyright(c) 2013 * Company: COSHAHO * @Version 1.0 * @Author coshaho */public class IgniteCluster01 { public static void main(String[] args) { TcpDiscoverySpi spi = new TcpDiscoverySpi(); TcpDiscoveryZookeeperIpFinder ipFinder = new TcpDiscoveryZookeeperIpFinder(); // Specify ZooKeeper connection string. ipFinder.setZkConnectionString("192.168.1.104:12181"); spi.setIpFinder(ipFinder); IgniteConfiguration cfg = new IgniteConfiguration(); // Override default discovery SPI. cfg.setDiscoverySpi(spi); // Start Ignite node. Ignite ignite =Ignition.start(cfg);System.out.println("IgniteCluster1 start OK."); CacheConfiguration<Integer, String> cacheCfg = new CacheConfiguration<Integer, String>(); cacheCfg.setBackups(1); cacheCfg.setCacheMode(CacheMode.PARTITIONED); cacheCfg.setName("myCache"); IgniteCache<Integer, String> cache = ignite.getOrCreateCache(cacheCfg); cache.put(1, "ignite1"); System.out.println(cache.get(1)); System.out.println(cache.get(2)); }}

3、 B系统运行Ignite节点2;

package com.coshaho.learn.ignite.cluster;import org.apache.ignite.Ignite;import org.apache.ignite.IgniteCache;import org.apache.ignite.Ignition;import org.apache.ignite.cache.CacheMode;import org.apache.ignite.configuration.CacheConfiguration;import org.apache.ignite.configuration.IgniteConfiguration;import org.apache.ignite.spi.discovery.tcp.TcpDiscoverySpi;import org.apache.ignite.spi.discovery.tcp.ipfinder.zk.TcpDiscoveryZookeeperIpFinder;public class IgniteCluster02 { public static void main(String[] args){TcpDiscoverySpi spi = new TcpDiscoverySpi();TcpDiscoveryZookeeperIpFinder ipFinder = new TcpDiscoveryZookeeperIpFinder(); // Specify ZooKeeper connection string.ipFinder.setZkConnectionString("192.168.1.104:12181");spi.setIpFinder(ipFinder);IgniteConfiguration cfg = new IgniteConfiguration(); // Override default discovery SPI. cfg.setDiscoverySpi(spi); // Start Ignite node.Ignite ignite =Ignition.start(cfg);System.out.println("IgniteCluster2 start OK.");CacheConfiguration<Integer, String> cacheCfg = new CacheConfiguration<Integer, String>();cacheCfg.setBackups(1);cacheCfg.setCacheMode(CacheMode.PARTITIONED);cacheCfg.setName("myCache");IgniteCache<Integer, String> cache = ignite.getOrCreateCache(cacheCfg);cache.put(2, "ignite2");System.out.println(cache.get(1));System.out.println(cache.get(2));}}

可以看到,Ignite节点2可以成功访问到Ignite节点1存入缓存的数据。
2017-12-29
mengvlog 阅读 7 次 更新于 2025-07-19 19:09:12 我来答关注问题0
  • 1、 C安装Zookeeper 由于主要测试Ignite,这里仅仅简单安装一个zookeeper节点,下载zookeeper解压后,直接执行zookeeper目录下的bin/zkServer.sh start命令则成功启动zookeeper。查看Ubuntu系统C的IP地址为192.168.1.104,zookeeper默认端口为12181。注意:这里VMware虚拟机的网络适配器一定要选择桥接模式,否则A机...

  •  翡希信息咨询 「Python」 - 磁力链爬虫

    Python磁力链爬虫的实现主要涉及到网络请求、页面解析和数据收集等步骤。以下是关于如何使用Python进行磁力链爬虫的简要说明:网络请求:使用Python的requests库或其他HTTP客户端库发送网络请求,获取目标网站的页面内容。在请求过程中,可能需要注意设置请求头,以模拟正常用户的访问行为,避免被网站反爬虫机制识别。

  • 1、安装必要的库 为了编写爬虫,你需要安装一些Python库,例如requests、BeautifulSoup和lxml等。你可以使用pip install命令来安装这些库。2、抓取网页数据 主要通过requests库发送HTTP请求,获取网页响应的HTML内容。3、解析HTML 使用BeautifulSoup等库对HTML进行解析,提取需要的数据。4、存储数据 将提取的数据存...

  • 我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧其实你很厉害的,右键查看页面源代码。我们可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如...

  •  来自檀干园深情的夏侯惇 python爬虫怎么做?

    这一步其实很简单,主要是通过requests库来进行请求,然后对返回的数据进行一个解析,解析之后通过对于元素的定位和选择来获取所需要的数据元素,进而获取到数据的一个过程。可以通过定义不同的爬虫来实现爬取不同页面的信息,并通过程序的控制来实现一个自动化爬虫。以下是一个爬虫的实例 ...

檬味博客在线解答立即免费咨询

Python相关话题

Copyright © 2023 WWW.MENGVLOG.COM - 檬味博客
返回顶部