104學習

Framework

Framework
關注
邀請朋友
邀請朋友

Line

Facebook

複製連結

取消
Framework:該角色負責設計與實施具有創新性的商業框架,以支持企業經營策略與組織發展。主要目標為提高工作效率、加強跨部門協作,並優化資源配置。應具備出色的溝通能力與分析思考能力,能夠迅速理解市場動態及內部需求。在台灣職場中,需面對快速變化的市場環境及多元文化背景,因此須具備靈活調整策略的能力,以應對日常運營中的挑戰。成功者應能有效引導團隊朝目標前進,同時促進內部知識分享,提升整體績效與創新能力。
關於教室
關注人數 17 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
關於教室
關注人數 17 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
Hi~ 歡迎分享學習資源,有學習問題可匿名向Giver發問!
我要分享
我要提問

Framework 學習推薦

全部
影片
文章
Mike Ku

Learn Code With Mike品牌創辦人

2022/01/15

掌握Scrapy框架重要的CSS定位元素方法(下)
Q: Scrapy如何利用CSS方法取得子元素值?
在實務上利用Scrapy框架開發Python網頁爬蟲時,並不是每次想要爬取的網頁元素(Element)都會有CSS樣式類別可以定位,這時候,就會需要透過上層的父元素往下定位子元素。
假設INSIDE硬塞的網路趨勢觀察網站-AI新聞( https://www.inside.com.tw/tag/ai )的文章標題<a>標籤沒有「js-auto_break_title」CSS樣式類別,而想要爬取<a>標籤的文字內容,該如何達成呢?
這時候,就會需要在Scrapy框架中利用CSS樣式類別先定位到<h3>標籤,接著,再取得其下的子元素<a>標籤,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
titles = response.css("h3.post_title a::text").getall()
for title in titles:
print(title)
在範例中,利用「post_title」CSS樣式類別定位到<h3>標籤後,接著一個空白,加上<a>標籤,意思就是取得<h3>標籤下的所有<a>標籤,由於要取得其中的文字,所以加上「::text」。
Q: Scrapy如何利用CSS方法取得元素屬性值?
此外,在開發Python網頁爬蟲時,也有機會爬取元素的屬性值(Attribute),舉例來說,最常見的就是<a>標籤的href屬性值(Attribute),也就是文章的連結網址,這時候只需要將「::text」關鍵字,修改為「::attr(屬性名稱)」即可,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
urls = response.css("a.js-auto_break_title::attr(href)").getall()
for url in urls:
print(url)
本文與掌握Scrapy框架重要的CSS定位元素方法(上)搭配實際的網站,示範Scrapy框架利用css()方法(Method)來定位網頁元素的基本用法,重點摘要如下:
1.取得單一元素值呼叫get()方法(Method)
2.取得多個元素值呼叫getall()方法(Method)
3.取得文字內容,加上「::text」關鍵字
4.取得屬性值則加上「::attr(屬性名稱)」關鍵字
希望對於想要學習Scrapy框架的朋友有所幫助。
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/01/scrapy-css-selectors.html
)網站觀看更多精彩內容。
看更多
2 0 400 0
104學習

06/06 00:00

81 1
Mike Ku

Learn Code With Mike品牌創辦人

2021/12/21

在Scrapy框架整合Selenium套件爬取動態網頁的實作
本文以Accupass網站的精選活動為例,來分享Scrapy框架整合Selenium套件,開發Python網頁爬蟲的流程。
Q: 如何建立Scrapy網頁爬蟲?
首先,利用以下指令安裝Scrapy框架:
$ pip install scrapy
接著,新增一個資料夾,並且使用命令提示字元切換到該資料夾的目錄下,建立Scrapy專案,如下:
$ scrapy startproject accupass_scraper .
有了專案後,就能夠利用以下指令建立Scrapy網頁爬蟲:
$ scrapy genspider accupass accupass.com
Q:如何安裝scrapy-selenium套件?
而Scrapy框架想要使用Selenium套件來發送請求與接收回應,就需要一個Middleware來使用Selenium套件。
其中的Middleware,也就是在Scrapy發送請求前,以及將回應結果傳給Scrapy網頁爬蟲前,能夠在Middleware中來進行前處理。
所以,Scrapy框架想要使用Selenium套件來發送請求與接收回應結果,就需要定義Middleware,當然,已經有大大寫好了scrapy-selenium Middleware可以使用,安裝方式如下指令:
$ pip install scapy-selenium
接下來,前往下載Selenium的瀏覽器驅動,並且放置於Scrapy專案資料夾中。開啟settings.py檔案,加入scrapy-selenium Middleware的相關設定,如下範例:
DOWNLOADER_MIDDLEWARES = {
'scrapy_selenium.SeleniumMiddleware': 800
}
SELENIUM_DRIVER_NAME = 'chrome'
SELENIUM_DRIVER_EXECUTABLE_PATH = 'chromedriver.exe'
SELENIUM_DRIVER_ARGUMENTS = ['-headless']
Q:如何Scrapy整合Selenium爬取動態網頁?
開啟Scrapy專案的accupass.py檔案,引用scrapy-selenium的SeleniumRequest模組,如下範例:
import scrapy
from scrapy_selenium import SeleniumRequest
而想要讓Scrapy框架使用Selenium套件發送請求,就可以新增start_requests()方法,如下範例:
class AccupassSpider(scrapy.Spider):
name = 'accupass'
allowed_domains = ['accupass.com']
start_urls = ['http://accupass.com/']
def start_requests(self):
yield SeleniumRequest(url='https://www.accupass.com/?area=north', callback=self.parse)
以上的callback參數就是收到網頁的回應結果之後,所要執行的方法,也就是爬取網頁上的資料,如下範例:
class AccupassSpider(scrapy.Spider):
name = 'accupass'
allowed_domains = ['accupass.com']
start_urls = ['http://accupass.com/']
def start_requests(self):
yield SeleniumRequest(url='https://www.accupass.com/?area=north', callback=self.parse)
def parse(self, response):
titles = response.css("p.style-f13be39c-event-name::text").getall()
for title in titles:
print(title)
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/11/scrapy-integrate-with-selenium.html
)網站觀看更多精彩內容。
看更多
3 0 791 2
104學習

06/17 00:00

8 0

推薦給你

104學習

產品

09/30 13:26

2025.9月證照排行榜:AWS、AI認證引領職場新趨勢
104學習近一個月用戶數據顯示,AWS雲端認證、AI人工智慧證照成為求職轉職及提升職場競爭力熱門首選。從基礎級的雲端從業人員到進階的解決方案架構師,再到新興的Gemini認證與生成式AI課程,科技類證照需求大幅領先傳統會計、多益等證照,反映企業對數位人才的迫切需求。
❇️Top1 AWS 認證的雲端從業人員-基礎級認證
通過率約為70%,此級別對於初學者友好,專門為對雲端相對陌生,且可能沒有資訊科技 (IT) 背景的考生而設計,本考試旨在幫助銷售、行銷、產品或專案管理等業務線的角色取得對 AWS 雲端的基本了解。
❇️Top2 AWS 認證的人工智慧從業人員-基礎級認證
此認證專為 AI 領域初學者設計,適合行銷、產品管理、教育等非技術職位者。考試內容包括機器學習、生成式 AI、倫理與應用場景,通過率約 65%
❇️Top3 Gemini 認證教師證書
專為教育工作者設計,證明持有人具備Gemini相關教學能力及專業,推動數位學習與課程設計。
❇️Top4 AWS 認證的解決方案架構師-助理級認證
適合具備一年以上 AWS 使用經驗者,聚焦成本與效能最佳化設計。無需程式實作背景,是雲端架構職涯的重要跳板。
❇️Top5 生成式AI課程認證
目標是讓學習者掌握生成式AI的基礎概念、實際應用及工具操作能力。內容包括大型語言模型(LLM)、生成式AI如何提升工作效率,以及Google Cloud的相關技術應用。
❇️Top6 公共工程品質管理人員 ↗️面試邀約提升:約 3倍
凡參與公共工程,需擔任品管人員(如施工、監造、管理等工程從業人員),都必須參加由工程會或其委託訓練機構舉辦的公共工程品質管理訓練課程,並取得結業證書。
❇️Top7 丙級會計事務技術士 ↗️面試邀約提升:1.4倍
▶️【點我免費做模擬測驗】
中小企業與事務所普遍需求的財會基礎證照,內容包含帳務處理、報表編製與基本稅務實務。適合準備從事會計助理、出納、財務行政等工作的求職者。根據2023年(民國112年)勞動部資料,該證照通過率為52.6%。
❇️Top8 AWS認證的開發人員-助理級認證
適合具備一年以上程式開發經驗者,考核使用 AWS 服務進行應用程式開發與部署能力,是雲端工程師與後端開發者提升職場競爭力的重要認證。
❇️Top9 TOEIC (多益測驗)
▶️【點我免費做模擬測驗】https://nabi.104.com.tw/assess/toeic/
多益成績已成為企業判斷求職者英語能力的標準,特別是外商公司。建議考取750分以上,若能獲得金色證書(860分以上),更能在職場競爭中脫穎而出。尤其對有志於外商企業、跨國集團或海外派駐的人才而言,TOEIC成績更是履歷的重要加分項。
❇️Top10 丙級電腦軟體應用技術士
行政助理、文書處理等職位的重要加分證照,通過率近六成。報考資格:年滿15歲或國民中學畢業即可報考。
想查熱門證照、掌握報名資訊與考古題?立即造訪【104證照中心】https://nabi.104.com.tw/certify
看更多
0 0 3712 2
你可能感興趣的教室