18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于eBPF的Kubernetes網(wǎng)絡(luò)異常檢測系統(tǒng)

馬哥Linux運(yùn)維 ? 來源:馬哥Linux運(yùn)維 ? 2025-07-24 14:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言:為什么選擇 eBPF?

作為一名在云原生領(lǐng)域深耕多年的運(yùn)維工程師,我見過太多因為網(wǎng)絡(luò)問題導(dǎo)致的生產(chǎn)事故。傳統(tǒng)的監(jiān)控手段往往是事后諸葛亮,當(dāng)你發(fā)現(xiàn)問題時,用戶已經(jīng)在抱怨了。今天,我將分享如何利用 eBPF 這一革命性技術(shù),構(gòu)建一套能夠?qū)崟r檢測 Kubernetes 網(wǎng)絡(luò)異常的系統(tǒng)。

痛點分析:傳統(tǒng)網(wǎng)絡(luò)監(jiān)控的困境

在 Kubernetes 環(huán)境中,網(wǎng)絡(luò)問題往往具有以下特點:

復(fù)雜性高:Pod 間通信涉及 CNI、Service Mesh、負(fù)載均衡器等多個組件
排查困難:問題發(fā)生時往往已經(jīng)影響用戶,缺乏實時的深度觀測能力
成本昂貴:傳統(tǒng) APM 工具價格不菲,且對內(nèi)核級別的網(wǎng)絡(luò)事件監(jiān)控有限

而 eBPF 的出現(xiàn),讓我們有了在內(nèi)核空間進(jìn)行無侵入式監(jiān)控的能力。

系統(tǒng)架構(gòu)設(shè)計

我們的系統(tǒng)采用分層架構(gòu),主要包含以下組件:

┌─────────────────────────────────────────────────────────┐
│          Web Dashboard            │
├─────────────────────────────────────────────────────────┤
│          Alert Manager            │
├─────────────────────────────────────────────────────────┤
│         Data Processor             │
├─────────────────────────────────────────────────────────┤
│         eBPF Data Collector          │
├─────────────────────────────────────────────────────────┤
│          Kernel Space             │
└─────────────────────────────────────────────────────────┘

核心實現(xiàn):eBPF 程序開發(fā)

1. TCP 連接異常檢測

首先,我們需要編寫 eBPF 程序來監(jiān)控 TCP 連接狀態(tài):

// tcp_monitor.bpf.c
#include
#include
#include
#include

structtcp_event{
  __u32 pid;
  __u32 saddr;
  __u32 daddr;
  __u16 sport;
  __u16 dport;
  __u8 state;
  __u64 timestamp;
};

struct{
  __uint(type, BPF_MAP_TYPE_PERF_EVENT_ARRAY);
  __uint(key_size,sizeof(__u32));
  __uint(value_size,sizeof(__u32));
} tcp_eventsSEC(".maps");

SEC("kprobe/tcp_set_state")
inttrace_tcp_state_change(structpt_regs *ctx){
 structsock*sk=(structsock *)PT_REGS_PARM1(ctx);
 intnew_state = PT_REGS_PARM2(ctx);
 
 structtcp_eventevent={};
  event.timestamp = bpf_ktime_get_ns();
  event.pid = bpf_get_current_pid_tgid() >>32;
  event.state = new_state;
 
 // 獲取連接信息
  BPF_CORE_READ_INTO(&event.saddr, sk, __sk_common.skc_rcv_saddr);
  BPF_CORE_READ_INTO(&event.daddr, sk, __sk_common.skc_daddr);
  BPF_CORE_READ_INTO(&event.sport, sk, __sk_common.skc_num);
  BPF_CORE_READ_INTO(&event.dport, sk, __sk_common.skc_dport);
 
 // 只關(guān)注異常狀態(tài)變化
 if(new_state == TCP_CLOSE || new_state == TCP_TIME_WAIT) {
    bpf_perf_event_output(ctx, &tcp_events, BPF_F_CURRENT_CPU,
              &event,sizeof(event));
  }
 
 return0;
}

charLICENSE[] SEC("license") ="GPL";

2. Go 用戶空間程序

接下來實現(xiàn)用戶空間的數(shù)據(jù)收集器:

// main.go
packagemain

import(
 "bytes"
 "encoding/binary"
 "fmt"
 "log"
 "net"
 "time"
 
 "github.com/cilium/ebpf"
 "github.com/cilium/ebpf/link"
 "github.com/cilium/ebpf/perf"
 "github.com/cilium/ebpf/rlimit"
)

typeTCPEventstruct{
  PID   uint32
  SrcAddr uint32
  DstAddr uint32
  SrcPort uint16
  DstPort uint16
  State  uint8
  Timestampuint64
}

typeNetworkMonitorstruct{
  collection *ebpf.Collection
  reader   *perf.Reader
  links   []link.Link
}

funcNewNetworkMonitor()(*NetworkMonitor,error) {
 // 移除內(nèi)存限制
 iferr := rlimit.RemoveMemlock(); err !=nil{
   returnnil, fmt.Errorf("remove memlock: %w", err)
  }
 
 // 加載 eBPF 程序
  collection, err := ebpf.NewCollectionFromFile("tcp_monitor.o")
 iferr !=nil{
   returnnil, fmt.Errorf("load eBPF program: %w", err)
  }
 
 // 附加到內(nèi)核探針
  kprobe, err := link.Kprobe(link.KprobeOptions{
    Symbol:"tcp_set_state",
    Program: collection.Programs["trace_tcp_state_change"],
  })
 iferr !=nil{
   returnnil, fmt.Errorf("attach kprobe: %w", err)
  }
 
 // 創(chuàng)建 perf 事件讀取器
  reader, err := perf.NewReader(collection.Maps["tcp_events"],4096)
 iferr !=nil{
   returnnil, fmt.Errorf("create perf reader: %w", err)
  }
 
 return&NetworkMonitor{
    collection: collection,
    reader:   reader,
    links:   []link.Link{kprobe},
  },nil
}

func(nm *NetworkMonitor)Start()error{
  log.Println("開始監(jiān)控 TCP 連接狀態(tài)變化...")
 
 for{
    record, err := nm.reader.Read()
   iferr !=nil{
     returnfmt.Errorf("read perf event: %w", err)
    }
   
   varevent TCPEvent
   iferr := binary.Read(bytes.NewReader(record.RawSample),
              binary.LittleEndian, &event); err !=nil{
     continue
    }
   
    nm.processEvent(&event)
  }
}

func(nm *NetworkMonitor)processEvent(event *TCPEvent) {
  srcIP := intToIP(event.SrcAddr)
  dstIP := intToIP(event.DstAddr)
 
 // 異常檢測邏輯
 ifevent.State ==7{// TCP_CLOSE
    log.Printf("檢測到連接關(guān)閉: %s:%d -> %s:%d (PID: %d)",
         srcIP, event.SrcPort, dstIP, event.DstPort, event.PID)
   
   // 判斷是否為異常關(guān)閉
   ifnm.isAbnormalClose(event) {
      nm.triggerAlert(event)
    }
  }
}

func(nm *NetworkMonitor)isAbnormalClose(event *TCPEvent)bool{
 // 實現(xiàn)異常檢測算法
 // 這里可以加入機(jī)器學(xué)習(xí)模型或規(guī)則引擎
 
 // 示例:檢測短時間內(nèi)大量連接關(guān)閉
 returnnm.checkConnectionFlood(event)
}

func(nm *NetworkMonitor)checkConnectionFlood(event *TCPEvent)bool{
 // 簡化版本:檢測是否在短時間內(nèi)有過多連接關(guān)閉
 // 實際實現(xiàn)中應(yīng)該使用時間窗口和閾值算法
 returnfalse
}

func(nm *NetworkMonitor)triggerAlert(event *TCPEvent) {
  alert := Alert{
    Type:   "connection_abnormal",
    Severity: "warning",
    Message:  fmt.Sprintf("檢測到異常連接關(guān)閉: PID %d", event.PID),
    Timestamp: time.Now(),
    Metadata:map[string]interface{}{
     "src_ip":  intToIP(event.SrcAddr).String(),
     "dst_ip":  intToIP(event.DstAddr).String(),
     "src_port": event.SrcPort,
     "dst_port": event.DstPort,
    },
  }
 
 // 發(fā)送告警
  nm.sendAlert(alert)
}

funcintToIP(addruint32)net.IP {
  ip :=make(net.IP,4)
  binary.LittleEndian.PutUint32(ip, addr)
 returnip
}

在 Kubernetes 中部署

1. 創(chuàng)建 DaemonSet

我們需要在每個節(jié)點上運(yùn)行監(jiān)控程序:

# k8s-deployment.yaml
apiVersion:apps/v1
kind:DaemonSet
metadata:
name:ebpf-network-monitor
namespace:monitoring
spec:
selector:
 matchLabels:
  app:ebpf-network-monitor
template:
 metadata:
  labels:
   app:ebpf-network-monitor
 spec:
  hostNetwork:true
  hostPID:true
  containers:
  -name:monitor
   image:ebpf-network-monitor:latest
   securityContext:
    privileged:true
   volumeMounts:
   -name:sys-kernel-debug
    mountPath:/sys/kernel/debug
   -name:lib-modules
    mountPath:/lib/modules
   -name:usr-src
    mountPath:/usr/src
   env:
   -name:NODE_NAME
    valueFrom:
     fieldRef:
      fieldPath:spec.nodeName
  volumes:
  -name:sys-kernel-debug
   hostPath:
    path:/sys/kernel/debug
  -name:lib-modules
   hostPath:
    path:/lib/modules
  -name:usr-src
   hostPath:
    path:/usr/src
  serviceAccount:ebpf-monitor
---
apiVersion:v1
kind:ServiceAccount
metadata:
name:ebpf-monitor
namespace:monitoring
---
apiVersion:rbac.authorization.k8s.io/v1
kind:ClusterRole
metadata:
name:ebpf-monitor
rules:
-apiGroups:[""]
resources:["pods","nodes"]
verbs:["get","list","watch"]
---
apiVersion:rbac.authorization.k8s.io/v1
kind:ClusterRoleBinding
metadata:
name:ebpf-monitor
roleRef:
apiGroup:rbac.authorization.k8s.io
kind:ClusterRole
name:ebpf-monitor
subjects:
-kind:ServiceAccount
name:ebpf-monitor
namespace:monitoring

2. 添加網(wǎng)絡(luò)策略檢測

擴(kuò)展我們的 eBPF 程序來監(jiān)控網(wǎng)絡(luò)策略違規(guī):

// network_policy.bpf.c
SEC("kprobe/ip_rcv")
inttrace_packet_receive(structpt_regs *ctx){
 structsk_buff*skb=(structsk_buff *)PT_REGS_PARM1(ctx);
 structiphdr*ip;
 
 // 讀取 IP 頭
  bpf_probe_read(&ip,sizeof(structiphdr),
         skb->data +sizeof(structethhdr));
 
 // 檢查是否違反網(wǎng)絡(luò)策略
 if(is_policy_violation(ip)) {
   structpolicy_eventevent={
      .src_ip = ip->saddr,
      .dst_ip = ip->daddr,
      .protocol = ip->protocol,
      .timestamp = bpf_ktime_get_ns(),
    };
   
    bpf_perf_event_output(ctx, &policy_events, BPF_F_CURRENT_CPU,
              &event,sizeof(event));
  }
 
 return0;
}

實戰(zhàn)優(yōu)化技巧

1. 性能優(yōu)化

// 使用批量處理減少系統(tǒng)調(diào)用
typeEventBatcherstruct{
  events []TCPEvent
  mutex sync.Mutex
  timer *time.Timer
}

func(eb *EventBatcher)AddEvent(event TCPEvent) {
  eb.mutex.Lock()
 defereb.mutex.Unlock()
 
  eb.events =append(eb.events, event)
 
 // 批量大小達(dá)到閾值或定時器觸發(fā)時處理
 iflen(eb.events) >=100{
    eb.flush()
  }elseifeb.timer ==nil{
    eb.timer = time.AfterFunc(100*time.Millisecond, eb.flush)
  }
}

func(eb *EventBatcher)flush() {
  eb.mutex.Lock()
  events := eb.events
  eb.events =nil
  eb.timer =nil
  eb.mutex.Unlock()
 
 // 批量處理事件
 for_, event :=rangeevents {
    processEvent(&event)
  }
}

2. 智能異常檢測

// 基于統(tǒng)計的異常檢測
typeAnomalyDetectorstruct{
  connectionsmap[string]*ConnectionStats
  mutex   sync.RWMutex
}

typeConnectionStatsstruct{
  Count  int64
  LastSeen time.Time
  Failures int64
  AvgLatencyfloat64
}

func(ad *AnomalyDetector)DetectAnomaly(event *TCPEvent)bool{
  key := fmt.Sprintf("%s:%d->%s:%d",
           intToIP(event.SrcAddr), event.SrcPort,
           intToIP(event.DstAddr), event.DstPort)
 
  ad.mutex.RLock()
  stats, exists := ad.connections[key]
  ad.mutex.RUnlock()
 
 if!exists {
    stats = &ConnectionStats{}
    ad.mutex.Lock()
    ad.connections[key] = stats
    ad.mutex.Unlock()
  }
 
 // 更新統(tǒng)計信息
  stats.Count++
  stats.LastSeen = time.Now()
 
 // 異常檢測算法
 ifevent.State == TCP_CLOSE {
    stats.Failures++
    failureRate :=float64(stats.Failures) /float64(stats.Count)
   
   // 如果失敗率超過閾值,認(rèn)為是異常
   returnfailureRate >0.1&& stats.Count >10
  }
 
 returnfalse
}

告警與可視化

1. Prometheus 集成

// metrics.go
packagemain

import(
 "github.com/prometheus/client_golang/prometheus"
 "github.com/prometheus/client_golang/prometheus/promauto"
)

var(
  tcpConnectionsTotal = promauto.NewCounterVec(
    prometheus.CounterOpts{
      Name:"tcp_connections_total",
      Help:"Total number of TCP connections",
    },
    []string{"src_ip","dst_ip","state"},
  )
 
  networkAnomaliesTotal = promauto.NewCounterVec(
    prometheus.CounterOpts{
      Name:"network_anomalies_total",
      Help:"Total number of network anomalies detected",
    },
    []string{"type","severity"},
  )
)

funcupdateMetrics(event *TCPEvent){
  tcpConnectionsTotal.WithLabelValues(
    intToIP(event.SrcAddr).String(),
    intToIP(event.DstAddr).String(),
    tcpStateToString(event.State),
  ).Inc()
 
 ifisAnomalous(event) {
    networkAnomaliesTotal.WithLabelValues(
     "connection_anomaly",
     "warning",
    ).Inc()
  }
}

2. Grafana 儀表板配置

{
"dashboard":{
 "title":"eBPF Network Monitoring",
 "panels":[
  {
   "title":"TCP Connection States",
   "type":"stat",
   "targets":[
    {
     "expr":"rate(tcp_connections_total[5m])",
     "legendFormat":"{{state}}"
    }
   ]
  },
  {
   "title":"Network Anomalies",
   "type":"graph",
   "targets":[
    {
     "expr":"increase(network_anomalies_total[1h])",
     "legendFormat":"{{type}}"
    }
   ]
  }
 ]
}
}

實際效果與案例

經(jīng)過在生產(chǎn)環(huán)境的部署測試,我們的系統(tǒng)成功檢測到了多種網(wǎng)絡(luò)異常:

DNS 解析異常:檢測到某個 Pod 頻繁進(jìn)行 DNS 查詢但響應(yīng)緩慢
連接池耗盡:及時發(fā)現(xiàn)微服務(wù)之間的連接數(shù)異常增長
網(wǎng)絡(luò)分區(qū):在節(jié)點網(wǎng)絡(luò)出現(xiàn)問題時第一時間告警

相比傳統(tǒng)監(jiān)控方案,我們的系統(tǒng)具有以下優(yōu)勢:

?零侵入:無需修改應(yīng)用代碼或配置

?實時性:內(nèi)核級別的監(jiān)控,延遲極低

?全面性:覆蓋 L3/L4 層的所有網(wǎng)絡(luò)事件

?成本低:開源方案,無license費用

總結(jié)與展望

通過 eBPF 技術(shù),我們成功構(gòu)建了一套強(qiáng)大的 Kubernetes 網(wǎng)絡(luò)異常檢測系統(tǒng)。這套系統(tǒng)不僅解決了傳統(tǒng)監(jiān)控的痛點,還為我們提供了前所未有的網(wǎng)絡(luò)可觀測性。

下一步計劃

1. 集成機(jī)器學(xué)習(xí)算法,提升異常檢測準(zhǔn)確率

2. 增加更多協(xié)議支持(HTTP/2、gRPC等)

3. 開發(fā)自動修復(fù)能力,實現(xiàn)真正的自愈系統(tǒng)

如果你也在為 Kubernetes 網(wǎng)絡(luò)問題頭疼,不妨試試這套方案。相信它會給你帶來意想不到的效果!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 異常檢測
    +關(guān)注

    關(guān)注

    1

    文章

    45

    瀏覽量

    9949
  • kubernetes
    +關(guān)注

    關(guān)注

    0

    文章

    255

    瀏覽量

    9363

原文標(biāo)題:從 0 到 1 構(gòu)建基于 eBPF 的 Kubernetes 網(wǎng)絡(luò)異常檢測系統(tǒng)

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Kubernetes 網(wǎng)絡(luò)模型如何實現(xiàn)常見網(wǎng)絡(luò)任務(wù)

    Kubernetes 是為運(yùn)行分布式集群而建立的,分布式系統(tǒng)的本質(zhì)使得網(wǎng)絡(luò)成為 Kubernetes 的核心和必要組成部分,了解 Kubernete
    的頭像 發(fā)表于 10-08 11:32 ?1487次閱讀

    關(guān)于 eBPF 安全可觀測性,你需要知道的那些事兒

    交互,負(fù)責(zé)采集配置和數(shù)據(jù)分析Metrics(度量)這也是可觀測性與監(jiān)控最主要的區(qū)別。系統(tǒng)中某一類信息的統(tǒng)計聚合,比如 CPU、內(nèi)存、網(wǎng)絡(luò)吞吐、硬盤 I/O、硬盤使用等情況。當(dāng)度量值觸發(fā)異常閾值時,
    發(fā)表于 09-08 15:31

    openEuler 倡議建立 eBPF 軟件發(fā)布標(biāo)準(zhǔn)

    擴(kuò)展到了網(wǎng)絡(luò)、內(nèi)核、安全、跟蹤等,而且它的功能特性還在快速發(fā)展中,早期的 BPF 被稱為經(jīng)典 BPF,簡稱 cBPF,正是這種功能擴(kuò)展,使得現(xiàn)在的 BPF 被稱為擴(kuò)展 BPF,簡稱 eBPF。如今
    發(fā)表于 12-23 16:21

    基于密度的異常挖掘智能網(wǎng)絡(luò)入侵檢測系統(tǒng)設(shè)計與實現(xiàn)

    論文提出了基于密度的異常挖掘新方法,并將其應(yīng)用于入侵檢測系統(tǒng)引擎設(shè)計中,構(gòu)建了相應(yīng)的網(wǎng)絡(luò)入侵檢測系統(tǒng)
    發(fā)表于 07-30 11:15 ?37次下載

    Kubernetes網(wǎng)絡(luò)隔離NetworkPolicy實驗

    Kubernetes的一個重要特性就是要把不同node節(jié)點的pod(container)連接起來,無視物理節(jié)點的限制。但是在某些應(yīng)用環(huán)境中,比如公有云,不同租戶的pod不應(yīng)該互通,這個時候就需要網(wǎng)絡(luò)
    發(fā)表于 11-28 10:00 ?2811次閱讀

    基于健壯多元概率校準(zhǔn)模型的全網(wǎng)絡(luò)異常檢測

    當(dāng)前因特網(wǎng)環(huán)境下各種網(wǎng)絡(luò)異常事件層出不窮,DDoS攻擊、僵尸網(wǎng)絡(luò)等大規(guī)模的網(wǎng)絡(luò)入侵給互聯(lián)網(wǎng)的安全運(yùn)營帶來嚴(yán)重威脅,而網(wǎng)絡(luò)擁塞、
    發(fā)表于 03-06 10:02 ?0次下載

    單分類支持向量機(jī)和主動學(xué)習(xí)的網(wǎng)絡(luò)異常檢測

    在日益復(fù)雜的網(wǎng)絡(luò)環(huán)境中,網(wǎng)絡(luò)攻擊越來越多樣化和復(fù)雜化,新的攻擊手段層出不窮。異常檢測通過訓(xùn)練集為網(wǎng)絡(luò)行為建立特征輪廓模型,通過計算新數(shù)據(jù)與正
    發(fā)表于 03-06 15:25 ?1次下載

    云模型的網(wǎng)絡(luò)異常流量檢測

    網(wǎng)絡(luò)流量的復(fù)雜性、難以預(yù)測性以及人們主觀評測的差異性等不確定因素,使得網(wǎng)絡(luò)流量的異常檢測成為網(wǎng)絡(luò)安全防護(hù)領(lǐng)域研究的難點問題。通過對流量安全特
    發(fā)表于 03-06 16:44 ?1次下載
    云模型的<b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>異常</b>流量<b class='flag-5'>檢測</b>

    大流量數(shù)據(jù)的高溫度網(wǎng)絡(luò)異常檢測綜述

    對包含大流量數(shù)據(jù)的高維度網(wǎng)絡(luò)進(jìn)行異常檢測,必須加入維數(shù)約簡處理以減輕系統(tǒng)在傳輸和存儲方面的壓力。介紹高速網(wǎng)絡(luò)環(huán)境下
    發(fā)表于 05-11 15:49 ?4次下載

    eBPF是什么以及eBPF能干什么

    一、eBPF是什么 eBPF是extended BPF的縮寫,而BPF是Berkeley Packet Filter的縮寫。對linux網(wǎng)絡(luò)比較熟悉的伙伴對BPF應(yīng)該比較了解,它通過特定的語法
    的頭像 發(fā)表于 07-05 15:17 ?1.3w次閱讀
    <b class='flag-5'>eBPF</b>是什么以及<b class='flag-5'>eBPF</b>能干什么

    入門炫酷的Kubernetes網(wǎng)絡(luò)方案

    ? ? 最近業(yè)界使用范圍最廣的K8S CNI網(wǎng)絡(luò)方案 Calico 宣布支持 eBPF,而作為第一個通過 eBPF 實現(xiàn)了 kube-proxy 所有功能的 K8S 網(wǎng)絡(luò)方案——Cil
    的頭像 發(fā)表于 10-13 15:19 ?1732次閱讀

    Kubernetes網(wǎng)絡(luò)模型介紹以及如何實現(xiàn)常見網(wǎng)絡(luò)任務(wù)

    Kubernetes 是為運(yùn)行分布式集群而建立的,分布式系統(tǒng)的本質(zhì)使得網(wǎng)絡(luò)成為 Kubernetes 的核心和必要組成部分,了解 Kubernete
    的頭像 發(fā)表于 05-05 20:22 ?2238次閱讀

    Kubernetes網(wǎng)絡(luò)模型的基礎(chǔ)知識

    Kubernetes 是為運(yùn)行分布式集群而建立的,分布式系統(tǒng)的本質(zhì)使得網(wǎng)絡(luò)成為 Kubernetes 的核心和必要組成部分,了解 Kubernete
    的頭像 發(fā)表于 07-20 09:46 ?1650次閱讀

    Kubernetes集群發(fā)生網(wǎng)絡(luò)異常時如何排查

    本文將引入一個思路:“在 Kubernetes 集群發(fā)生網(wǎng)絡(luò)異常時如何排查”。文章將引入 Kubernetes 集群中網(wǎng)絡(luò)排查的思路,包含
    的頭像 發(fā)表于 09-02 09:45 ?9171次閱讀

    工業(yè)控制系統(tǒng)異常檢測方法的研究和應(yīng)用情況

    傳統(tǒng)的工業(yè)控制系統(tǒng)不同于互聯(lián)網(wǎng)開放的體系,而是個體封閉的。但是隨著工業(yè)互聯(lián)網(wǎng)平臺的應(yīng)用,越來越多的設(shè)備連接到企業(yè)網(wǎng)絡(luò),從而引發(fā)了越來越多的網(wǎng)絡(luò)安全問題。傳統(tǒng)采用網(wǎng)絡(luò)流量的方法,出現(xiàn)了
    發(fā)表于 10-14 11:31 ?2424次閱讀