一日二技:MongoDB與 Scrapy 的小技巧各一個
今天我們來講兩個小技巧。

如何更新 MongoDB 中的一個數(shù)組
我們知道,如果想給 MongoDB 的一條文檔增加一個字段,我們可以使用update_one方法:
import pymongo handler = pymongo.MongoClient().db.col handler.update_one({'name': 'kingname'}, {'$set': {'新的字段名': '新的字段值'}})
但如果有一個字段是數(shù)組,我想向這個數(shù)組里面添加一個元素。并且,如果這個元素之前就已經(jīng)在這個數(shù)組中了,就什么也不做,只要之前不存在時才添加。
這個時候,我們就可以使用$addToSet操作符來實現(xiàn)這個功能。
這個操作符的語法為:
handler.update_one({'name': 'kingname'}, {'$addToSet': {'字段名': '要插入的元素'}})
我們來看一個例子。
例如對于如圖所示的一條文檔:
執(zhí)行代碼:
handler.update_one({'name': 'kingname'}, {'$addToSet': {'excellent': 'JavaScript'}})
運行以后,數(shù)組excellent變?yōu)槿缦聢D所示:
如果插入一條已經(jīng)存在的數(shù)據(jù),那么這個數(shù)組就不會變化。例如:
handler.update_one({'name': 'kingname'}, {'$addToSet': {'excellent': 'Python'}})
如何使用參數(shù)給 Scrapy 爬蟲增加屬性
在Scrapy 項目中,我們有時候需要在啟動爬蟲的時候,傳入一些參數(shù),從而讓一份代碼執(zhí)行不同的邏輯。這個時候,有一個非常方便的方法,就是使用-a參數(shù)。它的語法為:
scrapy crawl 爬蟲名 -a 參數(shù)1 -a 參數(shù)2 -a 參數(shù)3
那么,傳入的這些參數(shù),在爬蟲里面怎么使用呢?其實很簡單,你不需要做任何額外的配置,直接在爬蟲里面通過self.參數(shù)名就可以調(diào)用了。例如下面這個爬蟲:
大家可以看到,PyCharm 給兩個屬性self.body_name和self.age_from_cmdline標(biāo)上了黃色的背景,這是因為PyCharm 找不到這兩個屬性是在哪里定義的。
但沒有關(guān)系,我們啟動 Scrapy 爬蟲的時候,使用-a參數(shù)傳遞進去就好了:
scrapy crawl example -a body_name=kingname -a age_from_cmdline=28
運行效果如下圖所示:
可以看到,這個接口成功接收到了這兩個參數(shù),并且把它顯示了出來。
MongoDB Python Scrapy
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。