学习日志 220110 解决flink的后续问题 前端调用测试
解决flink的后续问题
=======================
# 接上周
- 问题 资源不够
- 尝试上调minikube的资源
- 需要minikube stop 意味着minikube的docker私有仓库需要重新配
- `minikube stop`
- 在hyper-v中设置minikube虚拟机 设置cpu为4 内存为12000M
- `minikube start`
- 检查kubectl describe node
- 资源已分配
- 检查pods情况 发现elastic search挂了
- 先恢复私有仓库配置
- 登录minikube
- `ssh docker@192.168.2.15`
- 发现证书不匹配
- 删除现有ssh证书 windows用户目录 .ssh/known_host
- 登录后 添加私仓 hosts
- sudo vi /etc/hosts
- 192.168.2.15 k8s-master
- 给minikube的docker客户端授权私有仓库的证书
- sudo mkdir -p /etc/docker/certs.d/k8s-master:31320
- sudo vi /etc/docker/certs.d/k8s-master:31320/ca.crt
- 证书内容和之前一样(因为之前已经把证书存入pvc了 minikube restart不会丢pvc)
- elastic search pod失败
- 删除pod 让k8s重新创建
- 成功
- kibana 也成功了
- 感觉eck还是挺稳的
- 测试springbootdemo
- http://192.168.2.15:31000/
- 搜索测试 成功
- 再试flink
- 之前想减少worker数量 但没找到相关参数
- 也考虑过减少flink worker的内存使用
- 但是现在minikube的cpu和内存都快用完了 还是扩一下
- 问题 flink相关的pods都消失了
- 运行一段时间后消失的
- kubectl get deployment
- deployment也没了
- 重新布flink 看看日志
- 日志报错
```
io.debezium.DebeziumException: Misconfigured master - master server_id is 0 Error code: 1236; SQLSTATE: HY000.
```
- 看来application模式下 如果抛异常 整个集群都没了
- 有效的server_id是多少? 试下从1开始
- $((${HOSTNAME##*-}+1))
- 如果hostname 是 xxx-xxx-0 上述表达式取值是1
- 解释 `##*` 表示 删除长前缀
- https://devhints.io/bash
- `##*-` 表示 基于最后一个-号删除前缀 该-号也被删除
- $(()) 表示执行数字运算 里面 +1
- 重新apply -f 数据库的描述文件
- 检查web端 http://192.168.2.15:31000/doc/_list
- 正常
- 重新部署blink
- 这次问题解决了 job一直在运行 没有中断了
- 确认结果
- 见下节
# 前端测试 新增 删除
- 前端创建 create 和 delete 功能
- java端的create功能是现成的
- java端增加delete by id 功能
- 前端调用create功能
- 前端调用delete功能
- 测试
- 采用create功能创建文档
- 搜索刚创建的文档的关键词
- 结果 能搜到
- 表示flink正确处理了 create的事件
- 采用delete功能删除某个文档
- 搜索本来能搜到原文档的关键词
- 结果 搜不到了
- 表示flink正确处理了 delete的事件