104學習精靈

前端框架開發

前端框架開發
關注
邀請朋友
邀請朋友

Line

Facebook

複製連結

取消
「前端框架開發:負責設計、開發及維護高效的前端框架,以提升應用程式的性能與使用者體驗。需具備扎實的HTML、CSS及JavaScript知識,並熟悉React、Vue或Angular等框架。強調跨部門協作能力,與設計及後端團隊密切合作,確保產品的一致性與可用性。在台灣職場需適應快速變化的市場需求,善於解決問題並善用敏捷開發方法,具備良好溝通技巧以便與不同角色有效合作。」
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
關於教室
關注人數 0 人
104人力銀行從職缺中挑選出常見技能所成立的官方教室,提供大家進行共學互動。
學習主持人
持續分享知識,
有機會成為官方教室主持人
教室標籤
Hi~ 歡迎分享學習資源,有學習問題可匿名向Giver發問!
我要分享
我要提問

前端框架開發 學習推薦

全部
影片
文章
Mike Ku

Learn Code With Mike品牌創辦人

2022/01/15

掌握Scrapy框架重要的CSS定位元素方法(下)
Q: Scrapy如何利用CSS方法取得子元素值?
在實務上利用Scrapy框架開發Python網頁爬蟲時,並不是每次想要爬取的網頁元素(Element)都會有CSS樣式類別可以定位,這時候,就會需要透過上層的父元素往下定位子元素。
假設INSIDE硬塞的網路趨勢觀察網站-AI新聞( https://www.inside.com.tw/tag/ai )的文章標題<a>標籤沒有「js-auto_break_title」CSS樣式類別,而想要爬取<a>標籤的文字內容,該如何達成呢?
這時候,就會需要在Scrapy框架中利用CSS樣式類別先定位到<h3>標籤,接著,再取得其下的子元素<a>標籤,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
titles = response.css("h3.post_title a::text").getall()
for title in titles:
print(title)
在範例中,利用「post_title」CSS樣式類別定位到<h3>標籤後,接著一個空白,加上<a>標籤,意思就是取得<h3>標籤下的所有<a>標籤,由於要取得其中的文字,所以加上「::text」。
Q: Scrapy如何利用CSS方法取得元素屬性值?
此外,在開發Python網頁爬蟲時,也有機會爬取元素的屬性值(Attribute),舉例來說,最常見的就是<a>標籤的href屬性值(Attribute),也就是文章的連結網址,這時候只需要將「::text」關鍵字,修改為「::attr(屬性名稱)」即可,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
urls = response.css("a.js-auto_break_title::attr(href)").getall()
for url in urls:
print(url)
本文與掌握Scrapy框架重要的CSS定位元素方法(上)搭配實際的網站,示範Scrapy框架利用css()方法(Method)來定位網頁元素的基本用法,重點摘要如下:
1.取得單一元素值呼叫get()方法(Method)
2.取得多個元素值呼叫getall()方法(Method)
3.取得文字內容,加上「::text」關鍵字
4.取得屬性值則加上「::attr(屬性名稱)」關鍵字
希望對於想要學習Scrapy框架的朋友有所幫助。
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/01/scrapy-css-selectors.html
)網站觀看更多精彩內容。
看更多
2 0 394 0

熱門精選

104學習精靈

產品

09/05 14:03

【AI課程推薦】從零到上榜:最值得投資的 iPAS AI 應用規劃師課程
你是否正在為考取 iPAS AI 應用規劃師認證而努力?
不論你是職涯轉換的新鮮人、正在準備升遷的在職人士,或是想提升 AI 導入與數位優化能力的專業工作者,這門由 104學習精靈 所推出的 「iPAS AI 應用規劃師|速攻考點 × 模擬實戰 × GPT刷題一次通過」 課程是極佳起點。
為什麼值得投資這門課?
⚡內容精準、高效導向:課程透過考照重點整理、模擬題實戰與 GPT 工具輔助刷題的方式,清楚聚焦於考試所需的思維與答題方式,讓你在最短時間內掌握題型邏輯與解題技巧。
⚡彈性又實用的學習模式:全課程提供線上觀看(不限次數),長達 1 小時 17 分鐘,你可以依自己的時間彈性安排學習節奏,也方便重複觀看複習,有效提升吸收率。
⚡課程價格親民、折扣誘人。
⚡幫助履歷加分:可在履歷或社群形象中展現你的學習力與 AI 導入技能。
適合對象:
🟢準備挑戰 iPAS AI 應用規劃師認證的考生:無論是初試啼聲還是想一次通過,本課程包羅必考精華與應試策略。
🟢需要快速掌握 AI 應用與規劃技能的職場人:這門課提供即戰力的工具與思維模式,有助於你在工作中靈活應用 AI。
🟢時間有限但期待高效學習者:短時長卻切中重點的課程設計,符合繁忙生活中仍希望進修成長的需求。
推薦學習策略:
🔥明確目標設定:在觀看課程前,先了解 iPAS AI 應用規劃師的考試結構與題型,設定明確的通過目標,協助你更專注於課程內容。
🔥循序成長、反覆鞏固:第一次著重於整體了解,第二次重點推敲難題與 GPT 解題技巧,讓學習更立體且記憶更深刻。
🔥實戰模擬 + 筆記整理:利用課程中的模擬實戰,加速答案邏輯的形成;同時整理筆記、歸納錯誤或重點,打造個人考前複習攻略。
🔥結合履歷,展現實力:完課後將「iPAS AI 應用規劃師完訓證明」或重點學習心得融入履歷或社群平台,提升曝光與職場競爭力。
如果你正在積極準備 iPAS AI 應用規劃師認證,或希望強化在 AI 領域的實務應用能力,這堂課無疑是你的最佳選擇之一。趕緊把握早鳥價,用高效策略搭配實戰演練,讓 GPT 成為你的刷題小幫手,助你一次通過、掌握職涯新門路!
【課程優惠】2025年9/30前享49折券現折!!
看更多
2 0 3821 0

104學習精靈精選課程

看更多課程
想提升職場競爭力?專業技能課程看起來👇
Mike Ku

Learn Code With Mike品牌創辦人

2022/01/15

掌握Scrapy框架重要的CSS定位元素方法(上)
想要開發Python網頁爬蟲的朋友,都會知道定位元素(Element)是一個非常重要的動作,Scrapy框架本身就有提供自己的定位元素(Element)方法(Method),包含CSS與XPath兩種,本文就以INSIDE硬塞的網路趨勢觀察網站-AI新聞( https://www.inside.com.tw/tag/ai )為例,先來和大家分享在Scrapy框架中,如何利用CSS的定位元素(Element)方法(Method),爬取想要的網頁內容。
Q: Scrapy如何利用CSS方法取得單一元素值?
CSS(Cascading Style Sheets)階層樣式表相信大家都不陌生,可以自訂樣式的類別來裝飾網頁,像是字體顏色、粗體等,所以在利用Scrapy框架開發網頁爬蟲時,也就能夠利用CSS樣式類別,來定位想要爬取的網頁元素(Element)。
前往INSIDE硬塞的網路趨勢觀察網站-AI新聞,在文章標題的地方,點擊滑鼠右鍵,選擇檢查,可以看到它的CSS樣式類別。假設想要在Scrapy框架中,利用CSS樣式類別來取得網頁的單一元素值,也就是單一文章的標題,就可以在spiders/inside.py的parse()方法(Method)中,使用css()方法(Method)來定位單一元素(Element),如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
title = response.css("a.js-auto_break_title::text").get()
print(title)
接著,利用以下的指令執行inside網頁爬蟲:
$ scrapy crawl inside
以上範例,response就是Scrapy框架請求後的回應結果,接著,呼叫css()方法,傳入所要定位的HTML標籤<a>,點的後面加上它的CSS樣式類別,由於要取得元素(Element)的文字,所以在加上「::text」關鍵字,最後,呼get()方法(Method)取得單一元素(Element)。
Q: Scrapy如何利用CSS方法取得多個元素值?
而在Scrapy框架中,想要爬取網頁多個元素值,則呼叫getall()方法(Method)即可,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
titles = response.css("a.js-auto_break_title::text").getall()
print(titles)
可以看到getall()方法(Method)回傳的是一個串列(List),包含了所有樣式類別為「js-auto_break_title」的<a>標籤文字,接下來,利用迴圈即可取得其中的文章標題,如下範例:
import scrapy
class InsideSpider(scrapy.Spider):
name = 'inside'
allowed_domains = ['www.inside.com.tw']
def parse(self, response):
titles = response.css("a.js-auto_break_title::text").getall()
for title in titles:
print(title)
如果想要學習更多的Python應用教學,歡迎前往Learn Code With Mike( https://www.learncodewithmike.com/2021/01/scrapy-css-selectors.html
)網站觀看更多精彩內容。
看更多
2 0 184 0

推薦給你

104學習精靈

產品

1小時前

【2025 最新】Amazon搶進企業AI代理市場!全新Quick Suite工具挑戰Google與微軟
2025 年 9 月,Amazon 正式宣布進軍企業 AI 代理市場,推出內測中的 Quick Suite。這套工具以 AI 代理為核心,能自動協助企業處理研究、數據分析、文件生成與決策建議,顯示 Amazon 不再滿足於雲端基礎建設角色,而是要與 Google Gemini、Microsoft Copilot 等直接競爭。隨著「Amazon AI 代理」與「企業 AI 工具」成為熱搜關鍵字,這場 AI 生產力工具的戰爭也進入白熱化。
🚀 Amazon Quick Suite 的核心功能
自動化研究與分析:快速整理大量資訊並輸出簡明摘要,降低員工花費在基礎調查上的時間。
文件生成與內容提案:AI 可自動撰寫簡報、合約草稿與市場研究報告。
決策輔助:結合雲端大數據與 AI 模型,提供企業策略建議。
深度整合 AWS:直接與 Amazon Web Services 資料與安全架構相連,確保企業級可靠性。
📊 比較表|Amazon Quick Suite vs 傳統企業工具
| 項目 | Amazon Quick Suite (AI 代理) | 傳統企業工具(如 Office、CRM) |
| 研究與分析| AI 自動整理資訊,輸出重點摘要 | 人工整理與分析,耗時耗力 |
| 文件生成 | 自動產出簡報、報告與提案 | 需人工撰寫與編輯 |
|決策支援 | AI 提供數據驅動的決策建議 | 多依靠人員經驗與靜態數據 |
| 系統整合 | 與 AWS 深度整合,確保安全與穩定性 | 需額外串接不同平台,整合度較低
|操作效率 | 高度自動化,適合追求效率與規模化的企業| 以人力操作為主,效率受限
🎯 小結:Amazon 正式加入企業 AI 工具大戰
Amazon 這次推出 Quick Suite,不僅是補足自家在 AI 生產力應用上的缺口,更意味著 AI 代理將成為企業競爭力的核心。在 Google、Microsoft 已搶先推出 Gemini 與 Copilot 的情況下,Amazon 的加入勢必會讓市場競爭更激烈。對企業來說,誰能率先掌握這類 AI 工具,就能在決策速度、營運效率與市場競爭中搶得先機。
看更多
1 0 50 1
你可能感興趣的教室