1-实时采集方案
2023-09-02 11:40:26 2 举报
1-实时采集方案
作者其他创作
大纲/内容
5.启动Nginx之前 将地址写进一个动态库里面 注意:得刷新库-->ldconfigecho \"/usr/lcoal/lib\" >> /etc/ld.so.conf
成功画面
常用命令
反向代理
第十二步结果
安装步骤
1.将安装包放在指定目录并解压--> tar -zxf .tar.gz2.安装c语言环境yum install gcc pcre-devel zlib-devel openssl-devel -y3.cd 到nginx目录下--> ./configure4.编译且安装--> make && make install5.进入到安装目录下--> cd /usr/local/nginx/sbin6.启动--> ./nginx7.默认网址 出现此画面表示启动成功--> 节点ip:80
conf-->配置文件html-->静态资源文件sbin-->可执行文件logs-->日志文件
2.后台启动Kafka-->现在我们用的kafka3.0以下 注意启动:zookeeper进入Kafka的根目录nohup bin/kafka-server-start.sh config/server.properties 1>/dev/null 2>&1 &
1.修改Nginx安装的配置文件vim /usr/local/nginx/conf/nginx.conf
1.修改配置后重新加载生效./nginx -s reload2.关闭Nginx./nginx -s stop :快速停止nginx3.ps -ef | grep nginxkill -QUIT 主进程号 :从容停止Nginxkill -TERM 主进程号 :快速停止Nginxpkill -9 nginx :强制停止Nginx4.平滑重启nginx:kill -HUP 主进程号
3.创建Topickafka-topics.sh --zookeeper localhost:2181 --create --replication-factor 3 --partitions 4 --topic accessyjx
使用场景
Nginx 整合 kafka
插件使用
1.上传Jar包--> librdkafka-2.1.0.tar.gz2.解压--> tar zxf librdkafka-2.1.0.tar.gz3.进入到目录-->cd librdkafka-2.1.0.tar4.安装 c命令 有旧不用安装yum -y update gccyum -y install gcc+ gcc-c++5.配置--> ./configure6.编译且安装--> make && sudo make install7.给Nginx添加一个插件 上传Jar包ngx_kafka_module-master.zip8.解压--> unzip ngx_kafka_module-master.zip9.改名--> mv ngx_kafka_module-master ngx_kafka_module10.关闭nginx11.进入源码目录--> cd /opt/msb/nginx-1.24.012.重新配置--> ./configure --add-module=../ngx_kafka_module13.编译且安装--> make && sudo make install
高并发场景
第六步结果
正向代理
源码安装
缺点:容错特别低 一旦宕机数据就没了
6.启动nginx 写入数据curl localhost/log.gif -d \"name=zql&gender=1\"
Nginx
常见目录
0 条评论
下一页