JoyLau's Blog

JoyLau 的技术学习与思考

今天在安装完nodejs后执行 npm install 居然出错了

npm: relocation error: npm: symbol SSL_set_cert_cb, version libssl.so.10 not defined in file libssl.

npm: relocation error: npm: symbol SSL_set_cert_cb, version libssl.so.10 not defined in file libssl.so.10 with link time reference”, “rc”: 127, “stderr”: “npm: relocation error: npm: symbol SSL_set_cert_cb, version libssl.so.10 not defined in file libssl.so.10 with link time reference\n”, “stderr_lines”: [“npm: relocation error: npm: symbol SSL_set_cert_cb, version libssl.so.10 not defined in file libssl.so.10 with link time reference

解决办法:

yum -y install openssl

如果已经安装,就更新一下

yum -y update openssl

第一个坑

SpringBoot 在1.5版本后就有了 starter, 但是在依赖列表中却没有找到相应的依赖,原因是名字不叫starter,傻傻的我还用JavaConfig 配置了一遍
现在看下整合 starter 之后的是怎么样的吧!

1
2
3
4
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>

上面这个依赖其实就是starter, 不需要些版本,SpringBoot会自己选择版本

yml配置文件

1
2
3
4
5
6
7
8
spring
kafka:
bootstrap-servers: 192.168.10.192:9092
consumer:
group-id: secondary-identification
producer:
batch-size: 65536
buffer-memory: 524288

默认只需要 bootstrap-servers 和 group-id 即可

接下来 生产者 和 消费者

1
2
3
4
5
6
7
8
@Component
public class MsgProducer {
@Autowired
private KafkaTemplate kafkaTemplate;
public void sendMessage() {
kafkaTemplate.send("index-vehicle","key","hello,kafka" + LocalDateTime.now().format(DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss.SSS")));
}
}
1
2
3
4
5
6
7
@Component
public class MsgConsumer {
@KafkaListener(topics = {"index-vehicle"})
public void processMessage(String content) {
System.out.println(content);
}
}

第二个坑

可以发消息,但是SpringBoot始终收不到,我用Kafka自带的工具却可以收到,很气愤,搞了好长时间都没有解决
后来遍访Google和官方文档,终于找到原因了,只要修改下配置文件的一个配置即可:

1
2
3
4
5
6
7
# The address the socket server listens on. It will get the value returned from 
# java.net.InetAddress.getCanonicalHostName() if not configured.
# FORMAT:
# listeners = listener_name://host_name:port
# EXAMPLE:
# listeners = PLAINTEXT://your.host.name:9092
listeners=PLAINTEXT://0.0.0.0:9092

上面的额这个 listeners,因为我的程序是加了@KafkaListener 来监听消息的,需要开启一个这样的配置项

这项配置项的含义在此也备注下:

监听列表(以逗号分隔 不同的协议(如plaintext,trace,ssl、不同的IP和端口)),hostname如果设置为0.0.0.0则绑定所有的网卡地址;如果hostname为空则绑定默认的网卡。如果没有配置则默认为java.net.InetAddress.getCanonicalHostName()

这2个坑在此记录下

一些常用命令在此记录下

zookeeper-server-start.bat ../../config/zookeeper.properties : 开启自带的zookeeper
kafka-server-start.bat ../../config.properties : 开启kafka
kafka-console-consumer.bat –bootstrap-server localhost:9092 –topic myTopic –from-beginning : 控制台接受指定topic消息
kafka-console-producer.bat –broker-list localhost:9092 –topic myTopic : 指定topic发送消息

注意的是用命令行创建的producer绑定的主题topic需要用命令行先创建topic,已经创建的就直接发送就好了

本文转自:http://blog.csdn.net/jsshaojinjie/article/details/64125458

maven dependencies增加

1
2
3
4
5
<dependency>  
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<optional>true</optional>
</dependency>

project增加

1
2
3
4
5
6
7
8
9
10
11
12
<build>  
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<configuration>
<!--fork : 如果没有该项配置,devtools不会起作用,即应用不会restart -->
<fork>true</fork>
</configuration>
</plugin>
</plugins>
</build>

idea设置

image

ctrl+shift+alt+/

image
image

重启项目即可。

通过注解读取文件

1
2
@Value("classpath:static/json/addTask.json")
Resource addTaskJson;

其他配置

前缀 例子 说明
classpath: classpath:com/myapp/config.xml 从classpath中加载
file: file:/data/config.xml 作为 URL 从文件系统中加载
http: http://myserver/logo.png 作为 URL 加载
(none) /data/config.xml 根据 ApplicationContext 进行判断

摘自于Spring Framework参考手册

转化为 字符串 转化为 JSON 对象

1
2
String jsonStr = new String(IOUtils.readFully(addTaskJson.getInputStream(), -1,true));
JSONObject json = JSONObject.parseObject(jsonStr);

注意: 该方法需要 jdk1.8的环境

SpringBoot 连接 Oracle

pom 文件配置

1
2
3
4
5
6
7
8
9
10
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-jpa</artifactId>
</dependency>

<dependency>
<groupId>com.oracle</groupId>
<artifactId>ojdbc6</artifactId>
<version>12.1.0.2</version>
</dependency>

注意: com.oracle.ojdbc6.12.1.0.2 在中央仓库没有,需要单独下载下来,再安装到本地仓库

yml文件配置

1
2
3
4
5
6
7
8
9
10
spring:
datasource:
driver-class-name: oracle.jdbc.OracleDriver
url: jdbc:oracle:thin:@192.168.10.240:1522:orcl12c
username: C##itmscz
password: itmscz
jpa:
hibernate:
ddl-auto: update
show-sql: true

接下来的套路都一样了,写好model实体类,注册个接口,然后就可以直接增删改查了

model :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
@Entity(name = "t_samp_recog")
@Data
public class SampRecog {
@Id
@GeneratedValue
private int id; //主键
private String batch; // 批次
private String img_url; // 图片路径
private String plate_nbr; // 车辆号牌
private boolean plate_nbr_right; // 车辆号牌是否正确
private String brand; // 品牌
private boolean brand_right; // 品牌是否正确
private String veh_type; // 车辆类型
private boolean veh_type_right; // 车辆类型是否正确
private String veh_color; // 车身颜色
private boolean veh_color_right; // 车身颜色是否正确
private String sticker_pos; // 车标位置
private boolean sticker_pos_right; // 车标位置是否全部正确
private boolean is_right; // 是否全部正确
private int check_status; //核对状态 1.未核对,2,正在核对,3、已经核对
}

dao :

1
2
public interface SampRecogDAO extends JpaRepository<SampRecog,Integer> {
}

看来 SpringBoot 整合数据源的套路都一样,下次整合其他的猜都知道怎么做了

以前一直用的 Navicat Premiun,里面虽然支持 Oracle ,但是支持 Oracle 版本都比较老啦,新一点的根本连接不上去,今天在网上找到个绿色版的 Navicat for Oracle,赶紧记下来,mark一下

地址

百度云盘:链接: https://pan.baidu.com/s/1mhPS9wW 密码: gtq4

7z的是我替换操作后的

操作

下载 3个文件 :
Navicat for Oracle.zip

instantclient-basic-nt-12.1.0.2.0.zip

instantclient-sqlplus-nt-12.1.0.2.0.zip

直接把 instantclient-basic-nt-12.1.0.2.0.zip 解压到 Navicat for Oracle 的解压目录的instantclient_10_2目录下

然后这个目录下多了instantclient_12_1 这个目录

然后再把instantclient-sqlplus-nt-12.1.0.2.0.zip 解压到 instantclient_12_1下

完成

最后打开Navicat for Oracle 单击 工具->选项-> OCI

2个路径分别选:

\instantclient_12_1.oci.dll

\instantclient_12_1.sqlplus.exe

然后就可以连接使用了

配置说明

配置Elasticsearch的集群名称,默认是elasticsearch,Elasticsearch会自动发现在同一网段下的Elasticsearch 节点,如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群。
cluster.name: elasticsearch

节点名,默认随机指定一个name列表中名字,不能重复。
node.name: "node1"

指定该节点是否有资格被选举成为node,默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master。
node.master: true

指定该节点是否存储索引数据,默认为true。
node.data: true

设置默认索引分片个数,默认为5片。
index.number_of_shards: 5

设置默认索引副本个数,默认为1个副本。
index.number_of_replicas: 1

设置配置文件的存储路径,默认是es根目录下的config文件夹。
path.conf: /path/to/conf

设置索引数据的存储路径,默认是es根目录下的data文件夹
path.data: /path/to/data

可以设置多个存储路径,用逗号(半角)隔开,如下面这种配置方式:
path.data: /path/to/data1,/path/to/data2

设置临时文件的存储路径,默认是es根目录下的work文件夹。
path.work: /path/to/work

设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.logs: /path/to/logs

设置插件的存放路径,默认是es根目录下的plugins文件夹
path.plugins: /path/to/plugins

设置为true来锁住内存。因为当jvm开始swapping时es的效率会降低,所以要保证它不swap,可以把ES_MIN_MEM和ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过`ulimit -l unlimited`命令。
bootstrap.mlockall: true

设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0。
network.bind_host: 192.168.0.1

设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。
network.publish_host: 192.168.0.1

这个参数是用来同时设置bind_host和publish_host上面两个参数。
network.host: 192.168.0.1

设置节点间交互的tcp端口,默认是9300,(集群的时候,注意端口区分)。
transport.tcp.port: 9300

设置是否压缩tcp传输时的数据,默认为false,不压缩。
transport.tcp.compress: true

设置对外服务的http端口,默认为9200(集群的时候,同台机器,注意端口区分)。
http.port: 9200

设置内容的最大容量,默认100mb
http.max_content_length: 100mb

是否使用http协议对外提供服务,默认为true,开启。
http.enabled: false

gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoop的HDFS,和amazon的s3服务器。
gateway.type: local

设置集群中N个节点启动时进行数据恢复,默认为1。
gateway.recover_after_nodes: 1

设置初始化数据恢复进程的超时时间,默认是5分钟。
gateway.recover_after_time: 5m

设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。
gateway.expected_nodes: 2

初始化数据恢复时,并发恢复线程的个数,默认为4。
cluster.routing.allocation.node_initial_primaries_recoveries: 4

添加删除节点或负载均衡时并发恢复线程的个数,默认为4。
cluster.routing.allocation.node_concurrent_recoveries: 2

设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。
indices.recovery.max_size_per_sec: 0

设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5。
indices.recovery.concurrent_streams: 5

设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 1

设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
discovery.zen.ping.timeout: 3s

设置是否打开多播发现节点,默认是true。
discovery.zen.ping.multicast.enabled: false

设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]

低配置云服务器上安装遇到的坑:

  1. 启动elasticsearch直接退出,并返回killed,这里一般是由于内存不足导致的
    修改es_home/config/jvm.options
    -Xms2g
    -Xmx2g

  2. max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]解决办法是手动修改/etc/sysctl.conf文件,最后面加上一行代码。
    vm.max_map_count=655360
    修改/etc/sysctl.conf,修改完成之后,参数可以使用sysctl -p命令来让参数生效

  3. initial heap size [536870912] not equal to maximum heap size [1073741824]; this can cause resize pauses and prevents mlockall from locking the entire heap
    vi config/jvm.options
    -Xms 和 -Xmx需要配置的相等,不然无法启动成功

【更新一下内容 2018年4月28日】

  1. elasticsearch 5 版本以上不能以 root 用户启动,需要新建一个用户
    useradd elasticsearch
    passwd elasticsearch
    chown elasticsearch path -R

  2. elasticsearch 在 linux 下以后台启动的命令
    sh elasticsearch -d
    确认日志没有报错,然后head插件可以连接的上就可以了

2018-06-21 更新

  1. ElasticSearch 允许跨域
    http.cors.enabled: true #开启跨域访问支持,默认为false
    http.cors.allow-origin: /.*/ #跨域访问允许的域名地址,(允许所有域名)以上使用正则

  2. rpm 安装的 elasticsearch 可以自动以系统服务启动和以root用户启动

前言

第一天学习 Hadoop 看了不少资料和文档,在这里想总结一下这一天的所学

感受

以前一直以为 JavaWeb 和大数据这是2条路子,学了大数据之后就要放下 JavaWeb,就像在项目中使用 Struts2 和 SpringMVC,2者只能选一个使用,在看了一些资料之后,我发现我的认识错了,其实 JavaWeb 和大数据技术就像 SpringMVC 和Spring Boot
2者是并行不悖的。大数据技术囊括很多技术,JavaWeb只是其中的一部分,要学习大数据需要学习的技术还有很多。

总结

Hadoop是干什么的

一句话概括:适合大数据的分布式存储与计算平台

Hadoop的2个重要部分

  • HDFS : 分布式文件系统
  • MapReduce : 并行计算框架

HDFS

主从结构:

主节点: 只有一个 namedode

从节点: 多个 datanode

namenode:

负责接收用户请求

维护文件系统的目录结构

管理文件与 block 之间的关系,block 与 datanode 之间的关系

datanode:

存储文件

文件被分成若干 Block 存储在磁盘上

为保证数据安全,文件会被备份成多个副本

MapReduce

主从结构:

主节点: 只有一个 JobTracker

从节点: 有多个 TaskTracker

JobTracker:

接受用户提交的任务

把计算任务分配给 TaskTracker 执行

监控 TaskTracker 的执行情况

TaskTracker:

执行 JobTracker 分配的任务

开始使用

引入依赖

1
2
3
4
5
6
7
8
9
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-elasticsearch</artifactId>
</dependency>
<dependency>
<groupId>net.java.dev.jna</groupId>
<artifactId>jna</artifactId>
<version>3.0.9</version>
</dependency>

这里需要注意的是:
SpringBoot 的版本和 elasticsearch 的版本问题,在springboot 1.3.5 版本之前支持elasticsearch2.0 以下的版本,springboot1.3.5之后的版本支持elasticsearch5.0以下的版本
net.java.dev.jna 这个依赖是因为启动后报类不存在,加个jna依赖加上后就好了

配置文件

1
2
3
4
5
spring:
data:
elasticsearch:
cluster-name: elasticsearch
cluster-nodes: localhost:9300

这里需要注意的是:
elasticsearch对外提供的api的端口的是9200,提供各个集群间和客户端通信的是9300
配置文件里 cluster-nodes 配置项如果不填写的话,springboot应用启动时会自动创建内部的 elasticsearch 客户端,你会发现即是本地没开 elasticsearch 服务也能跑起来
配置多个集群的话 cluster-nodes 就配置多条信息,用逗号隔开

在 SpringBoot 项目中使用

  • 主要的一个接口ElasticsearchRepository<T,ID>,第一个是要存储的实体类,第二个参数是 ID 类型
  • 还有个 ElasticsearchCrudRepository,顾名思义就是增删改查
  • 自定义一个接口实现上述接口
  • 定义实体类
  • 自定义实现类可直接注入使用
  • 默认的已经存在了增删改查的方法了,可以直接使用
  • 想要更多的功能可以在接口中实现更多的自定义

自定义一个 DAO :

1
2
public interface SongDao extends ElasticsearchRepository<Song,Integer> {
}

定义一个实体类 :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
@Data
@NoArgsConstructor
@Document(indexName = "songdb",type = "song")
public class Song {
@Id
private int id;

private String name;

private String author;

private long time;

private String commentKeyId;

private String mp3URL;

/*歌曲封面地址*/
private String picURL;

/*歌曲描述*/
private String describe;

/*专辑*/
private String album;

/*歌词*/
private String lyric;

/*mvid*/
private int mvId;
}

注意:
@Document注解里面的几个属性,类比mysql的话是这样:
index –> DB
type –> Table
Document –> row
@Id注解加上后,在Elasticsearch里相应于该列就是主键了,在查询时就可以直接用主键查询,后面一篇会讲到。其实和mysql非常类似,基本就是一个数据库
indexName在上述注解中需要小写

使用的话 注入SongDAO ,之后就可以看到相应的方法了
使用起来就是如此简单,感觉使用起来很像MongoDB配置

有一些注解的配置

有时候使用起来会有一些问题

  • 在默认策略下, Java 实体类叫什么名字,生成后的表名就叫什么,但我们可能并不想这样
  • 同样的道理,有时属性名和字段也并不想一样的

注解解决这些问题

  • @Id : 标明表的 ID , 自带索引,无需维护
  • @Document : 解决第一个问题
  • @Field : 解决第二个问题,默认不加@Field 有一写默认配置,一旦添加了@Filed注解,所有的默认值都不再生效。此外,如果添加了@Filed注解,那么type字段必须指定

入门使用就写到这

0%