可按根据指定画师 UID 解析并下载插画(包括动图)、一键下载所有你关注的画师的插画或收藏的插画、智能增量更新下载过的画师的插画。
多线程下载,并且支持使用 HTTP 与 SOCKS 代理。
Head Pic: 「五河琴里」/「秋原ノゾミ Sheila」のイラスト [pixiv]
Pxder
由于 Pixiv 已不再支持客户端的登录 API,请更新到 v2.12.0 及以后的版本以使用新的登录方式
此项目基于 Node.js,姑且算自己学习的副产物(实际上是不务正业的产物
最大的缺点是没有 GUI,纯命令行操作,不过也并不难用(信我)
安装及使用等说明请直接看 Github 项目文档
注意
因P站域名遭到 GFW 的 SNI 阻断,这意味着只要你在大陆内,即便你改了 Hosts 也无法直接使用 pxder,请记得使用pxder --setting
设置代理或启用直连模式
从现在开始所有在评论中询问因未挂代理而产生的问题都将会被无视
版权声明:本文为原创文章,版权归 神代綺凜 所有。
本文链接:https://moe.best/projects/pxder.html
所有原创文章采用 知识共享署名-非商业性使用 4.0 国际许可协议 进行许可。
您可以自由的转载和修改,但请务必注明文章来源并且不可用于商业目的。
error: {
user_message: '',
message: 'Rate Limit',
reason: '',
user_message_details: {}
怎么办?
我uid只有957,不够5000
Download Path: I:\PIXIV
SyntaxError: C:\Users\1\AppData\Roaming\pxder\private.json: Unexpected end of JSON input
at JSON.parse ()
at Object.Module._extensions..json (internal/modules/cjs/loader.js:799:27)
at Module.load (internal/modules/cjs/loader.js:641:32)
at Function.Module._load (internal/modules/cjs/loader.js:556:12)
at Module.require (internal/modules/cjs/loader.js:681:19)
at require (internal/modules/cjs/helpers.js:16:16)
at PixivFunc.downloadFollowAll (C:\Users\1\AppData\Roaming\npm\node_modules\pxder\src\index.js:307:20)
at C:\Users\1\AppData\Roaming\npm\node_modules\pxder\bin\pxder:72:41
at processTicksAndRejections (internal/process/task_queues.js:89:5)
pxder --conf-loca
得到数据目录,进去删掉private.json
可能是程序之前在写缓存的时候出错了还是怎么导致 json 有问题,我回头加个错误处理
然后我还有要说的,我用nobup也好,screen也罢都不能真正意义上挂后台,ssh软件关了就停止了,明明sslocal,webssh用nohup就能一直运行。pxder用同样方法还是不能保持运行(所以我想到的方法竟然是搭建webssh,再docker搭建个oldiy的谷歌浏览器运行webssh运行pxder,,,,)
nohup <command> &
,单纯的 nohup 是没有用的,或者直接用 screen目前的逻辑是当列表某一页的图全都下载了就认为已经找到了最后下载到的位置,不会再继续往后拉取
特别地,当按关注画师更新的时候,如果某画师的最新三张图从旧到新连续存在至少一张,也不会继续爬取
-f
参数会下载所有已公开关注的画师,上限是 5000,受官方 API 所限制下载其他画师可以用
-u
参数指定 uid,这些在说明中都有写我比较倾向于转 mp4
https://github.com/Tsuk1ko/pxder/issues/13
以及如果在收藏下载完前关闭,下次再执行pxder -b命令的话会接着上次的进程下载吗?
收藏没有做记和缓存,不会接着下载,后续版本会加入缓存功能
辛苦大佬了~
如果以后出现这种情况可以加
--force
重新收集信息,或者等全下完之后再执行一遍现在发现,如果使用日本的节点挂代理就可以持续下载,不会卡死。
不过大大能不能加入下载排行榜前50之类的功能!
以后做 GUI 版的时候会考虑加入
不过还是很感谢楼主做的工具