104學習

系統日誌分析

系統日誌分析
關注
邀請朋友
邀請朋友

Line

Facebook

複製連結

取消
「系統日誌分析:負責收集、分析及管理系統日誌資料,以確保資訊安全及系統效能的最佳化。目標是透過數據分析辨識潛在的安全威脅與系統異常,並協助相關部門進行問題根源調查。需要具備資料分析能力、熟悉各類日誌格式及協定,具備良好的溝通技巧與跨部門協作能力。此外,此職位需了解台灣特有的網絡安全法規,以及可能影響企業運作的地區性技術趨勢,以保持系統的穩定性與法規符合性。」
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
Hi~ 歡迎分享學習資源,有學習問題可匿名向Giver發問!
我要分享
我要提問

系統日誌分析 學習推薦

全部
影片
文章
Mike Ku

Learn Code With Mike品牌創辦人

2021/12/29

學會使用3個Scrapy網頁爬蟲偵錯技巧提升開發效率
Q:Scrapy Shell(互動介面)是什麼?
Scrapy Shell是一個互動式的終端(Terminal)介面,讓開發人員可以不需要等到整個Scrapy專案完成就能夠進行測試,主要是用來測試Scrapy框架使用css()或xpath()方法(Method)爬取資料的結果。
舉例來說,用Visual Studio Code開啟Scrapy專案,在終端介面(Terminal)的地方,利用以下的指令開啟Scrapy Shell:
如果想要確認回應的結果,可以使用以下的Scrapy Shell指令:
>>>view(response)
True
除此之外,假設要爬取其中的新聞標題,就可以在Scrapy Shell的互動式介面中,透過指令的方式,使用css()或xpath()方法(Method)來測試是否能夠爬取成功,如下範例:
>>> response.css("h3.post_title a.js-auto_break_title::text").get()
'Appier 將於東京交易所掛牌,市值估突破 10 億美元'
Q:Scrapy Logging(日誌)如何使用?
Scrapy網頁爬蟲另一個最常用來偵錯的方法就是Logging(日誌),依據重要的程度分為五種日誌類型,由高到低為:critical、error、warning、info、debug,由於Scrapy框架的網頁爬蟲類別(spiders)本身就已經有logger物件,所以無需引用就可以在網頁爬蟲中使用,如下範例:
class HotNewsSpider(scrapy.Spider):
name = 'hot_news'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
# 熱門文章標題
hot_news_title = response.xpath(
"//h1[@class='title']/text()").get()
if hot_news_title:
return hot_news_title
else:
self.logger.error("沒有爬取到熱門文章標題")
接下來,開啟Scrapy專案的settings.py檔案,加入以下設定,如下範例:
LOG_FILE = "inside_log.txt"
LOG_LEVEL = "ERROR" #特別注意這邊一定要大寫
其中「LOG_LEVEL(日誌層級)」可以自訂在哪一個日誌類型以上需要被記錄到日誌檔中,預設為DEBUG。
而Scrapy網頁爬蟲(spiders)模組以外,如果想要使用Logging(日誌),就需要引用logging模組(Module),以ITEM PIPELINE資料模型管道(pipelines.py)為例,如下範例:
from itemadapter import ItemAdapter
from scrapy.exporters import CsvItemExporter
import logging
class CsvPipeline:
def __init__(self):
self.file = open('posts.csv', 'wb')
self.exporter = CsvItemExporter(self.file, encoding='big5')
self.exporter.start_exporting()
def process_item(self, item, spider):
if item:
self.exporter.export_item(item)
return item
else:
logging.error("無資料匯出!")
...
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike(https://www.learncodewithmike.com/2021/03/scrapy-spiders-debug.html
)網站觀看更多精彩內容。
看更多
2 0 1113 0
104學習

09/01 00:00

40 0
104學習

12/07 00:00

7 0

推薦給你

104學習

產品

10/16 16:06

NVIDIA DLI 官方證書怎麼拿 ? 生成式 AI、LLM 應用開發完整攻略
想進入 AI 領域卻不知從何開始?NVIDIA Deep Learning Institute(DLI)官方認證課程為工程師、資料科學家和技術人員提供最實戰的學習路徑。課程涵蓋生成式 AI 開發、LLM 大型語言模型應用、異常偵測 AI、高效能運算 等熱門技術,透過雲端 GPU 實作環境,讓您邊學邊做,完成後且通過課後測驗即可獲得 NVIDIA DLI 官方頒發的完課證書,為履歷加分、提升職場競爭力!
🟡 NVIDIA DLI官方課程 - 使用提示詞打造 LLM應用服務
從 Prompt 編排、訊息策略、資料輸出到智慧代理設計,這門課程將是你邁向 LLM 開發的第一哩路,也是未來生成式 AI 應用不可或缺的核心技能。
Q: 誰適合這門課?
A: 具備 Python 程式設計經驗& 對 LLM 基礎知識有扎實理解
Q: 完成課程後,是否會提供相關證明?
A: 是的,在您完成所有課程內容且通過課後測驗後,將會獲得由 NVIDIA DLI 官方所頒發的正式完課證書。
🟡 NVIDIA DLI官方課程 - 異常狀況偵測的AI應用
以電信產業網路入侵偵測為出發案例,實際操作三種核心異常偵測技術,結合理論、應用與效能評估,打造真正落地的異常預測能力。你將深入探索NVIDIA 加速運算平台上的 XGBoost 與深度學習模型,體驗其在高維資料處理與推論速度上的關鍵優勢,並理解監督式與非監督式技術在異常情境中的應用差異。
Q: 這門課程需要具備什麼樣的知識?
A: 為確保您能深入吸收課程內容,建議應具備:
1. Python 資料科學實務經驗
2. 對深度神經網路訓練原理的理解
NVIDIA DLI 課程能讓你親手操作 NVIDIA 最新技術,全面提升你在業界關鍵職位所需的實戰能力。
看更多
0 0 1298 1
你可能感興趣的教室