104學習精靈

系統日誌分析

系統日誌分析
關注
邀請朋友
邀請朋友

Line

Facebook

複製連結

取消
「系統日誌分析:負責收集、分析及管理系統日誌資料,以確保資訊安全及系統效能的最佳化。目標是透過數據分析辨識潛在的安全威脅與系統異常,並協助相關部門進行問題根源調查。需要具備資料分析能力、熟悉各類日誌格式及協定,具備良好的溝通技巧與跨部門協作能力。此外,此職位需了解台灣特有的網絡安全法規,以及可能影響企業運作的地區性技術趨勢,以保持系統的穩定性與法規符合性。」
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
Hi~ 歡迎分享學習資源,有學習問題可匿名向Giver發問!
我要分享
我要提問

系統日誌分析 學習推薦

全部
影片
文章
Mike Ku

Learn Code With Mike品牌創辦人

2021/12/29

學會使用3個Scrapy網頁爬蟲偵錯技巧提升開發效率
Q:Scrapy Shell(互動介面)是什麼?
Scrapy Shell是一個互動式的終端(Terminal)介面,讓開發人員可以不需要等到整個Scrapy專案完成就能夠進行測試,主要是用來測試Scrapy框架使用css()或xpath()方法(Method)爬取資料的結果。
舉例來說,用Visual Studio Code開啟Scrapy專案,在終端介面(Terminal)的地方,利用以下的指令開啟Scrapy Shell:
如果想要確認回應的結果,可以使用以下的Scrapy Shell指令:
>>>view(response)
True
除此之外,假設要爬取其中的新聞標題,就可以在Scrapy Shell的互動式介面中,透過指令的方式,使用css()或xpath()方法(Method)來測試是否能夠爬取成功,如下範例:
>>> response.css("h3.post_title a.js-auto_break_title::text").get()
'Appier 將於東京交易所掛牌,市值估突破 10 億美元'
Q:Scrapy Logging(日誌)如何使用?
Scrapy網頁爬蟲另一個最常用來偵錯的方法就是Logging(日誌),依據重要的程度分為五種日誌類型,由高到低為:critical、error、warning、info、debug,由於Scrapy框架的網頁爬蟲類別(spiders)本身就已經有logger物件,所以無需引用就可以在網頁爬蟲中使用,如下範例:
class HotNewsSpider(scrapy.Spider):
name = 'hot_news'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
# 熱門文章標題
hot_news_title = response.xpath(
"//h1[@class='title']/text()").get()
if hot_news_title:
return hot_news_title
else:
self.logger.error("沒有爬取到熱門文章標題")
接下來,開啟Scrapy專案的settings.py檔案,加入以下設定,如下範例:
LOG_FILE = "inside_log.txt"
LOG_LEVEL = "ERROR" #特別注意這邊一定要大寫
其中「LOG_LEVEL(日誌層級)」可以自訂在哪一個日誌類型以上需要被記錄到日誌檔中,預設為DEBUG。
而Scrapy網頁爬蟲(spiders)模組以外,如果想要使用Logging(日誌),就需要引用logging模組(Module),以ITEM PIPELINE資料模型管道(pipelines.py)為例,如下範例:
from itemadapter import ItemAdapter
from scrapy.exporters import CsvItemExporter
import logging
class CsvPipeline:
def __init__(self):
self.file = open('posts.csv', 'wb')
self.exporter = CsvItemExporter(self.file, encoding='big5')
self.exporter.start_exporting()
def process_item(self, item, spider):
if item:
self.exporter.export_item(item)
return item
else:
logging.error("無資料匯出!")
...
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike(https://www.learncodewithmike.com/2021/03/scrapy-spiders-debug.html
)網站觀看更多精彩內容。
看更多
2 0 1094 0

熱門精選

104學習精靈

產品

09/05 14:03

【AI課程推薦】從零到上榜:最值得投資的 iPAS AI 應用規劃師課程
你是否正在為考取 iPAS AI 應用規劃師認證而努力?
不論你是職涯轉換的新鮮人、正在準備升遷的在職人士,或是想提升 AI 導入與數位優化能力的專業工作者,這門由 104學習精靈 所推出的 「iPAS AI 應用規劃師|速攻考點 × 模擬實戰 × GPT刷題一次通過」 課程是極佳起點。
為什麼值得投資這門課?
⚡內容精準、高效導向:課程透過考照重點整理、模擬題實戰與 GPT 工具輔助刷題的方式,清楚聚焦於考試所需的思維與答題方式,讓你在最短時間內掌握題型邏輯與解題技巧。
⚡彈性又實用的學習模式:全課程提供線上觀看(不限次數),長達 1 小時 17 分鐘,你可以依自己的時間彈性安排學習節奏,也方便重複觀看複習,有效提升吸收率。
⚡課程價格親民、折扣誘人。
⚡幫助履歷加分:可在履歷或社群形象中展現你的學習力與 AI 導入技能。
適合對象:
🟢準備挑戰 iPAS AI 應用規劃師認證的考生:無論是初試啼聲還是想一次通過,本課程包羅必考精華與應試策略。
🟢需要快速掌握 AI 應用與規劃技能的職場人:這門課提供即戰力的工具與思維模式,有助於你在工作中靈活應用 AI。
🟢時間有限但期待高效學習者:短時長卻切中重點的課程設計,符合繁忙生活中仍希望進修成長的需求。
推薦學習策略:
🔥明確目標設定:在觀看課程前,先了解 iPAS AI 應用規劃師的考試結構與題型,設定明確的通過目標,協助你更專注於課程內容。
🔥循序成長、反覆鞏固:第一次著重於整體了解,第二次重點推敲難題與 GPT 解題技巧,讓學習更立體且記憶更深刻。
🔥實戰模擬 + 筆記整理:利用課程中的模擬實戰,加速答案邏輯的形成;同時整理筆記、歸納錯誤或重點,打造個人考前複習攻略。
🔥結合履歷,展現實力:完課後將「iPAS AI 應用規劃師完訓證明」或重點學習心得融入履歷或社群平台,提升曝光與職場競爭力。
如果你正在積極準備 iPAS AI 應用規劃師認證,或希望強化在 AI 領域的實務應用能力,這堂課無疑是你的最佳選擇之一。趕緊把握早鳥價,用高效策略搭配實戰演練,讓 GPT 成為你的刷題小幫手,助你一次通過、掌握職涯新門路!
【課程優惠】2025年9/30前享49折券現折!!
看更多
1 0 1055 0
學習精靈

09/01 00:00

37 0
學習精靈

12/07 00:00

4 0

推薦給你

緯育TibaMe

09/02 14:54

[免費直播報名】 1小時快速掌握讓工作卡關變通關的關鍵要訣🔥
😓 這些場景,你是不是也遇過?
✘ 跨部門簡報,重點被跳過,沒人買單
✘ 提案講完,主管只回「再調整一下」
✘ 客戶談合作,心裡覺得有戲,卻一直無法成交
這不是能力問題,而是缺少策略!
👉 9/18(四) 讓擁有超過 22 年商務諮詢服務經驗,且擅長 #策略規劃 和 #解決方案設計 的呂欣老師,帶你用 AI 工具拆解工作任務、精準分析對象、建立說服邏輯!
▍ 1 小時你將學會
✅ 任務策略拆解術
✅ NotebookLM 策略資料庫實作
✅ Gemini 攻心說服架構示範
▍ 直播講座資訊
🔹 時間:9/18(四) 20:00~21:00
🔹 講者:世界 500 強企業外聘商業顧問 ​ 呂欣老師
🔹 講座形式:線上直播(將於活動前 1~3 天email提供直播連結)
🔸 立即報名:https://tibame.tw/oEoM4
🎁 本次報名且出席直播即可獲得 【工作任務拆解模組 + 講師獨家 Prompt】
#緯育tibame讓緯育提拔你 #人才賦能 #AI軍師 #AI工具 #生成式AI據點
看更多
1 0 1092 2
你可能感興趣的教室