104學習精靈

Framework

Framework
關注
邀請朋友
邀請朋友

Line

Facebook

複製連結

取消
Framework:該角色負責設計與實施具有創新性的商業框架,以支持企業經營策略與組織發展。主要目標為提高工作效率、加強跨部門協作,並優化資源配置。應具備出色的溝通能力與分析思考能力,能夠迅速理解市場動態及內部需求。在台灣職場中,需面對快速變化的市場環境及多元文化背景,因此須具備靈活調整策略的能力,以應對日常運營中的挑戰。成功者應能有效引導團隊朝目標前進,同時促進內部知識分享,提升整體績效與創新能力。
關於教室
關注人數 17 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
關於教室
關注人數 17 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
Hi~ 歡迎分享學習資源,有學習問題可匿名向Giver發問!
我要分享
我要提問

Framework 學習推薦

全部
影片
文章
Mike Ku

Learn Code With Mike品牌創辦人

2022/01/15

掌握Scrapy框架重要的CSS定位元素方法(下)
Q: Scrapy如何利用CSS方法取得子元素值?
在實務上利用Scrapy框架開發Python網頁爬蟲時,並不是每次想要爬取的網頁元素(Element)都會有CSS樣式類別可以定位,這時候,就會需要透過上層的父元素往下定位子元素。
假設INSIDE硬塞的網路趨勢觀察網站-AI新聞( https://www.inside.com.tw/tag/ai )的文章標題<a>標籤沒有「js-auto_break_title」CSS樣式類別,而想要爬取<a>標籤的文字內容,該如何達成呢?
這時候,就會需要在Scrapy框架中利用CSS樣式類別先定位到<h3>標籤,接著,再取得其下的子元素<a>標籤,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
titles = response.css("h3.post_title a::text").getall()
for title in titles:
print(title)
在範例中,利用「post_title」CSS樣式類別定位到<h3>標籤後,接著一個空白,加上<a>標籤,意思就是取得<h3>標籤下的所有<a>標籤,由於要取得其中的文字,所以加上「::text」。
Q: Scrapy如何利用CSS方法取得元素屬性值?
此外,在開發Python網頁爬蟲時,也有機會爬取元素的屬性值(Attribute),舉例來說,最常見的就是<a>標籤的href屬性值(Attribute),也就是文章的連結網址,這時候只需要將「::text」關鍵字,修改為「::attr(屬性名稱)」即可,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
urls = response.css("a.js-auto_break_title::attr(href)").getall()
for url in urls:
print(url)
本文與掌握Scrapy框架重要的CSS定位元素方法(上)搭配實際的網站,示範Scrapy框架利用css()方法(Method)來定位網頁元素的基本用法,重點摘要如下:
1.取得單一元素值呼叫get()方法(Method)
2.取得多個元素值呼叫getall()方法(Method)
3.取得文字內容,加上「::text」關鍵字
4.取得屬性值則加上「::attr(屬性名稱)」關鍵字
希望對於想要學習Scrapy框架的朋友有所幫助。
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/01/scrapy-css-selectors.html
)網站觀看更多精彩內容。
看更多
2 0 396 0

熱門精選

104學習

產品

09/11 14:57

轉職首選!3 週從零到上手的數據分析師養成營 —— 104人力銀行 × 104學習 × 緯育 TibaMe 聯合推出
想跨入高薪、有前景,又能左右商業決策的數據分析師職涯,但擔心自己沒有程式背景、時間不夠嗎?
這堂【數據分析師學習營】或許是你理想的起點。
✨ 首次跨界合作,更強大資源整合✨
這次由 104學習精靈 首度攜手 緯育 TibaMe 聯合打造。
⚡104人力銀行 × 104學習精靈:深耕職涯數據多年,最了解台灣企業用人需求,課程更貼近市場實際職缺。
⚡緯育 TibaMe:累積多年產業培訓經驗,專注於 IT、數據、AI 等熱門技能轉職養成,培訓模式完整,輔導成效有口碑。
這樣的合作,讓學員享有真實的培訓經驗,學習效果與轉職落地率都更具保障。
課程亮點一次看
🔥3 週密集實戰:短短三週密集訓練,快速掌握職場必備技能,不必耗費半年、一年時間啃課表。
🔥零基礎設計:無需工程背景,也不用寫程式,由淺入深帶你學會資料庫查詢(SQL)與數據視覺化工具 Power BI。
🔥實戰作品累績履歷實力:課程設計強調實務操作,結訓不僅懂工具,更手上有完成的作品,讓履歷直接升級。
🔥專屬平台與支援:透過共學社群與專業助教協助,學習不再孤單。
為什麼你該報名?
🟢快速起步,快速看成果:三週聚焦提速進展,是在職或時間有限者的最佳選擇。
🟢具備市場需求核心技能:SQL 與 Power BI,完全符合企業當前的數據分析需求。
🟢履歷實力落地具體化:實作作品比起只學理論更能打動雇主眼光。
🟢104 × 緯育 TibaMe 強強聯手:把資源與專業結合,讓學習不只停留在課程,而是直通「就業」與「轉職」。
👉 立即報名,搶先卡位:超小班就50位唷!
👉 刷中信/台新/玉山可享3期0利率!
👉 超早鳥優惠領$850券報名到9/24唷!
👉 前10名解鎖送500元Line點數,第11名起送200元Line點數,更多驚喜組合購,可再額外送100元Line點數
看更多
2 0 5288 4
學習精靈

06/06 00:00

81 1
Mike Ku

Learn Code With Mike品牌創辦人

2021/12/21

在Scrapy框架整合Selenium套件爬取動態網頁的實作
本文以Accupass網站的精選活動為例,來分享Scrapy框架整合Selenium套件,開發Python網頁爬蟲的流程。
Q: 如何建立Scrapy網頁爬蟲?
首先,利用以下指令安裝Scrapy框架:
$ pip install scrapy
接著,新增一個資料夾,並且使用命令提示字元切換到該資料夾的目錄下,建立Scrapy專案,如下:
$ scrapy startproject accupass_scraper .
有了專案後,就能夠利用以下指令建立Scrapy網頁爬蟲:
$ scrapy genspider accupass accupass.com
Q:如何安裝scrapy-selenium套件?
而Scrapy框架想要使用Selenium套件來發送請求與接收回應,就需要一個Middleware來使用Selenium套件。
其中的Middleware,也就是在Scrapy發送請求前,以及將回應結果傳給Scrapy網頁爬蟲前,能夠在Middleware中來進行前處理。
所以,Scrapy框架想要使用Selenium套件來發送請求與接收回應結果,就需要定義Middleware,當然,已經有大大寫好了scrapy-selenium Middleware可以使用,安裝方式如下指令:
$ pip install scapy-selenium
接下來,前往下載Selenium的瀏覽器驅動,並且放置於Scrapy專案資料夾中。開啟settings.py檔案,加入scrapy-selenium Middleware的相關設定,如下範例:
DOWNLOADER_MIDDLEWARES = {
'scrapy_selenium.SeleniumMiddleware': 800
}
SELENIUM_DRIVER_NAME = 'chrome'
SELENIUM_DRIVER_EXECUTABLE_PATH = 'chromedriver.exe'
SELENIUM_DRIVER_ARGUMENTS = ['-headless']
Q:如何Scrapy整合Selenium爬取動態網頁?
開啟Scrapy專案的accupass.py檔案,引用scrapy-selenium的SeleniumRequest模組,如下範例:
import scrapy
from scrapy_selenium import SeleniumRequest
而想要讓Scrapy框架使用Selenium套件發送請求,就可以新增start_requests()方法,如下範例:
class AccupassSpider(scrapy.Spider):
name = 'accupass'
allowed_domains = ['accupass.com']
start_urls = ['http://accupass.com/']
def start_requests(self):
yield SeleniumRequest(url='https://www.accupass.com/?area=north', callback=self.parse)
以上的callback參數就是收到網頁的回應結果之後,所要執行的方法,也就是爬取網頁上的資料,如下範例:
class AccupassSpider(scrapy.Spider):
name = 'accupass'
allowed_domains = ['accupass.com']
start_urls = ['http://accupass.com/']
def start_requests(self):
yield SeleniumRequest(url='https://www.accupass.com/?area=north', callback=self.parse)
def parse(self, response):
titles = response.css("p.style-f13be39c-event-name::text").getall()
for title in titles:
print(title)
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/11/scrapy-integrate-with-selenium.html
)網站觀看更多精彩內容。
看更多
3 0 785 2
學習精靈

06/17 00:00

8 0

推薦給你

104學習

產品

09/15 14:38

「環境部淨零綠領人才培育課程」首次測驗今登場 逾千名考生應試 到考率超過96%
「環境部淨零綠領人才培育課程」首場集中測驗今天在全國14個考區同步舉行,約1,400名完成48小時專業課程的學員參加測驗,到考率超過96%。凡是30歲以下在學生(不含在職專班者)及低(中低)收入戶,測驗及格者可申請學費優惠。環境部部長彭啓明為鼓勵這些通過測驗的綠領人才成為推動國家淨零轉型的生力軍,後續將擇優選出20名成績優異者,規劃於行政院大禮堂舉辦合格證明頒發典禮,以表示對於綠領人才的尊重並彰顯其榮譽。
-
主辦本次測驗的國家環境研究院(國環院)表示,參加本次測驗的學員,男女比例約為1比1,平均年齡為33歲,最年輕的學員年齡僅17歲,最年長者為69歲。而社會人士占五成多,略高於在學學生的四成多;三成具研究所以上學歷,兩成為文法商等跨領域背景,顯示各年齡層及不同專業領域對綠色轉型專業知能的高度需求。
-
國環院又指出,學員職業背景相當多元,除了大專院校在學生,也有來自各行各業的專業人士,包括上市櫃公司主管、會計師、資訊工程師與環工技師,甚至還有美髮業者與電影剪接師參與,充分展現綠領課程已成為跨領域專業人才進修與轉型的重要管道。
-
本次測驗採筆試方式,測驗後15個工作天內,國環院將寄發電子成績單,及格者同時可獲環境部核發的官方合格證明,請學員務必留意信件收取。國環院提醒,凡30歲以下大專院校在學生(不含在職專班),只要首次測驗及格即可申請新臺幣6,000元半額補助;符合中低收入戶、低收入戶或身心障礙身分者,則可申請新臺幣12,000元全額補助。學員取得成績單後,可逕向原開班學校申請學費減免事宜。
-
國環院強調,課程將持續開班招生,有興趣者可至「綠領人才資訊平臺」就近報名:https://ulvis.net/iTs8
下一場集中測驗訂於11月22日舉行,並將增設南投與離島考區,便利更多學員參與。
-
立即報名「環境部淨零綠領人才培育課程」:
看更多
0 0 307 0
你可能感興趣的教室