-
766666666666666666666
查看全部 -
創建topic: bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 -partitions 1 --topci wikipedis(topic名稱)
發送一個post請求:curl -XPOST -H'Content-Type: application/json' -d@quickstart/tutorial/wikipedia-kafka-supervisor.json http://localhost:8090/druid/indexer/v1/supervisor
查看全部 -
啟動kafka: bin/kafka-server-start.sh config/server.properties
kafka topic操作界面:bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test
查看topic情況:bin/kafka-topics.sh --list --bootstrap-server localhost:9092
打開producer開始push消息:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
打開consumer開始消費消息: bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
查看全部 -
server.properties配置文件說明:
broker.id=0? #kafka實例節點唯一標識
num.network.threads=3 #broker處理消息的最大線程數,一般是cpu的核數
num.io.threads=8 #broker處理磁盤io的線程數
socket.send.buffer.bytes=102400 #socket的一個發送緩沖區大小
socket.receive.buffer.bytes=102400 #socket的一個接入緩沖區大小
socket.request.max.bytes=104857600 #socket請求的最大數值
log.dirs=/tem/kafka-logs #log文件地址
num.partitions=1 #指定一個新創建的topic會包含的那些分區的一個默認值
num.recovery.threads.per.data.dir=1 #配置kafka用于自身恢復的一些機制,默認情況下,每個文件夾下就是1個線程
#log.flush.interval.messages=1000 #當消息有1000條時就刷新到磁盤上
#log.flush.interval.ms=1000 #每1000秒時就把消息刷新到磁盤
log.retention.hours=168 #過期時間,日志數據保存的一個最大時間,默認是7天
#log.retention.bytes=1073741824 #日志保存的最大字節數
log.retention.check.interval.ms=300000 #日志片段檢查周期
查看全部 -
kafka基本原理
查看全部 -
kafka的基本原理
查看全部 -
Producer: 生產者(向kafka發送數據,負責將消息放到kafka中)
Consumer: 消費者(讀取kafka的數據)
Consumer Group: 消費者組,kafka的消費者從屬于消費者組,同一個消費者組訂閱的同一個topic, 當消費者組里面的消費者數量小于等于主題下面的分區的時候,每一個消費者都對應這一個或者多個分區。當消費者組里面的消費者數量大于分區的數量的時候,多出來的消費者不會消費任何分區的消息
查看全部 -
kafka基本概念:
Broker:部署kafka實例的服務器節點;
Topic: 區分不同種類消息的標識,比如用戶點擊數據或者應用的消息等,不同的類型使用topic進行區分;
Partition: 是Topic的分區,分區的主要目的是實現負載均衡,提高并發度。
查看全部 -
Kafka簡介
查看全部 -
Druid數據攝取配置
查看全部 -
Druid的數據結構
查看全部 -
Druid數據劃分
查看全部 -
Apache Druid架構圖
查看全部 -
OLAT技術方案對比
查看全部 -
Druid基本特點
查看全部
舉報