添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
无邪的松树  ·  easyUI ...·  9 月前    · 
严肃的电影票  ·  android 获取ssid ...·  1 年前    · 
机灵的铁链  ·  20_NumPy数组ndarray和Pyth ...·  1 年前    · 

在生成业务常有将MySQL数据同步到ES的需求,如果需要很高的定制化,往往需要开发同步程序用于处理数据。但没有特殊业务需求,官方提供的logstash就很有优势了。

在使用logstash我们赢先了解其特性,再决定是否使用:

  • 无需开发,仅需安装配置logstash即可;
  • 凡是SQL可以实现的logstash均可以实现(本就是通过sql查询数据)
  • 支持每次全量同步或按照特定字段(如递增ID、修改时间)增量同步;
  • 同步频率可控,最快同步频率每分钟一次(如果对实效性要求较高,慎用);
  • 不支持被物理删除的数据同步物理删除ES中的数据(可在表设计中增加逻辑删除字段IsDelete标识数据删除)。
  • 前往官网下载logstash,下载地址 https://www.elastic.co/downloads/logstash ,zip压缩包大约160M;

    程序目录:【windows】G:\ELK\logstash-6.5.4;【linux】/tomcat/logstash/logstash-6.5.4。

    下文统一以【程序目录】表示不同环境的安装目录。

    2.1、新建目录存放配置文件及mysql依赖包

    在【程序目录】目录(\bin同级)新建mysql目录,将下载好的mysql-connector-java-5.1.34.jar放入此目录;

    在【程序目录】\mysql目录新建jdbc.conf文件,此文件将配置数据库连接信息、查询数据sql、分页信息、同步频率等核心信息。

    注意事项请查看注释信息。

    2.2、单表同步配置

  • 方案1:使用windows自带的任务计划;
  • 方案2:nssm注册windows服务, https://blog.csdn.net/u010887744/article/details/53957713
  • linux开机自启:

  • CentOS 7将linux服务加入系统启动 systemd service, https://blog.csdn.net/u010887744/article/details/53957647
  • 4、问题及解决方案

    4.1、数据同步后,ES没有数据

    output.elasticsearch模块的index必须是全小写;

    4.2、增量同步后last_run_metadata_path文件内容不改变

    如果lowercase_column_names配置的不是false,那么tracking_column字段配置的必须是全小写。

    4.3、提示找不到jdbc_driver_library

    2032 com.mysql.jdbc.Driver not loaded. Are you sure you've included the correct jdbc driver in :jdbc_driver_library?

    检测配置的地址是否正确,如果是linux环境,注意路径分隔符是“/”,而不是“\”。

    4.4、数据丢失

    statement配置的sql中,如果比较字段使用的是大于“>”,可能存在数据丢失。

    假设当同步完成后last_run_metadata_path存放的时间为2019-01-30 20:45:30,而这时候新入库一条数据的更新时间也为2019-01-30 20:45:30,那么这条数据将无法同步。

    解决方案:将比较字段使用 大于等于“>=”。

    4.5、数据重复更新

    上一个问题“数据丢失”提供的解决方案是比较字段使用“大于等于”,但这时又会产生新的问题。

    假设当同步完成后last_run_metadata_path存放的时间为2019-01-30 20:45:30,而数据库中更新时间最大值也为2019-01-30 20:45:30,那么这些数据将重复更新,直到有更新时间更大的数据出现。

    当上述特殊数据很多,且长期没有新的数据更新时,会导致大量的数据重复同步到ES。

    何时会出现以上情况呢:①比较字段非“自增”;②比较字段是程序生成插入。

    解决方案:

    ①比较字段自增保证不重复或重复概率极小(比如使用自增ID或者数据库的timestamp),这样就能避免大部分异常情况了;

    ②如果确实存在大量程序插入的数据,其更新时间相同,且可能长期无数据更新,可考虑定期更新数据库中的一条测试数据,避免最大值有大量数据。

    4.6、容灾

    logstash本身无法集群,我们常使用的组合ELK是通过kafka集群变相实现集群的。

    可供选择的处理方式:①使用任务程序推送数据到kafaka,由kafka同步数据到ES,但任务程序本身也需要容灾,并需要考虑重复推送的问题;②将logstash加入守护程序,并辅以第三方监控其运行状态。具体如何选择,需要结合自身的应用场景了。

    4.7、海量数据同步

    为什么会慢?logstash分页查询使用临时表分页,每条分页SQL都是将全集查询出来当作临时表,再在临时表上分页查询。这样导致每次分页查询都要对主表进行一次全表扫描。

    SELECT * FROM (SELECT * FROM `ImageCN1` WHERE ModifyTime>= '1970-01-01 08:00:00' order by ModifyTime asc) AS `t1` LIMIT 5000 OFFSET 10000000;
    

    数据量太大,首次同步如何安全过渡同步?

    可考虑在statement对应的sql中加上分页条件,比如ID在什么范围,修改时间在什么区间,将单词同步的数据总量减少。先少量数据同步测试验证,再根据测试情况修改区间条件启动logstash完成同步。比如将SQL修改为:

    SELECT * FROM `ImageCN1` WHERE ModifyTime<'2018-10-10 10:10:10' AND ModifyTime>= '1970-01-01 08:00:00' order by ModifyTime asc

    这样需要每次同步后就修改sql,线上运营比较繁琐,是否可以不修改sql,同时保证同步效率呢?SQL我们可以再修改下:

    SELECT * FROM `ImageCN1` WHERE ModifyTime>= '1970-01-01 08:00:00' order by ModifyTime asc limit 100000

     这样就能保证每次子查询的数据量不超过10W条,实际测试发现,数据量很大时效果很明显。