百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

使用python3爬取网页,aria2下载最新电影,Jellyfin播放电影

csdh11 2025-05-15 17:25 4 浏览

前言:在我搭建好Jellyfin软件后,因为只能播放本地视频,就想能不能播放网络上的电影,可以每天自动下载并更新,这样就不用我手工下载好,再上传到NAS中播放。或许有更好的方法,那就是直接用电影播放源,那就有个问题了,没有那个视频网愿意给播放源,所以还是自己慢慢下载后再播放吧。个人对于python语言也是小白,在网络上寻找大神的脚本稍加修改得到的。

如果需要搭建jellyfin,请看我之前的博客-家庭影院Jellyfin搭建,linux网页视频播放器。

环境:centos7

工具:python3、jellyfin、shell脚本、aria2

1、安装python3

默认安装好centos7系统后,自带有python2.7.5的版本,所以需要安装python3的版本。2.7.5的版本不能删除,否则centos系统会崩溃。请从官网下载python3.8版本。

关于python2升级至python3,会有一些问题,但都能解决,请参考以下资料:

1)Centos7升级python2到python3

2)pbzip2: error while loading shared libraries: libbz2.so.1.0: cannot open shared object file

3)centos7安装python3及其配置pip(建立软连接)


2、编辑python脚本

命名脚本为movie.py,将以下复制到py脚本保存,执行python3 movie.py。查看爬取结果,是否生成文件。

脚本不是我编写的,是借鉴大神,然后根据电影天堂现在的地址和信息,做了一些改动,获取下载电影地址

# encoding: gbk
# 我们用到的库
import requests
import bs4
import re
import pandas as pd

def get_data(url):
  '''
  功能:访问 url 的网页,获取网页内容并返回
  参数:
    url :目标网页的 url
  返回:目标网页的 html 内容
  '''
  headers = {
    'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
  }
  
  try:
    r = requests.get(url, headers=headers)
    r.raise_for_status()
    r.encoding = 'gbk'
    return r.text
   
  except requests.HTTPError as e:
    print(e)
    print("HTTPError")
  except requests.RequestException as e:
    print(e)
  except:
    print("Unknown Error !")

def parse_data(html):
  '''
  功能:提取 html 页面信息中的关键信息,并整合一个数组并返回
  参数:html 根据 url 获取到的网页内容
  返回:存储有 html 中提取出的关键信息的数组
  '''
  bsobj = bs4.BeautifulSoup(html,'html.parser')
  info = []
   
  # 获取电影列表
  tbList = bsobj.find_all('table', attrs = {'class': 'tbspan'})
     
  # 对电影列表中的每一部电影单独处理
  for item in tbList:
  
    movie = []
    link = item.b.find_all('a')[0]
  
    # 获取电影的名称
    name = link.string
  
    # 获取详情页面的 url
    url = 'https://www.dytt8.net' + link["href"]
  
    # 将数据存放到电影信息列表里
    movie.append(name)
    movie.append(url)
     
    try:
      # 访问电影的详情页面,查找电影下载的磁力链接
      temp = bs4.BeautifulSoup(get_data(url),'html.parser')
      tbody = temp.find_all('a')
      print(tbody)
      #^magnet.*?fannouce
                   
      # 下载链接有多个(也可能没有),这里将所有链接都放进来
      for i in tbody:
        lines = i.get("href")    
        if "magnet" in lines:
          #download = lines.a.text
          #print(lines)
          movie.append(lines)
         
      print(movie)
  
      # 将此电影的信息加入到电影列表中
      info.append(movie)
       
    except Exception as e:
      print(e)
   
  return info


def save_data(data):
  '''
  功能:将 data 中的信息输出到文件中/或数据库中。
  参数:data 将要保存的数据 
  '''
  filename = 'C:/Users/Administrator/Desktop/movie.txt'
   
  dataframe = pd.DataFrame(data)
  dataframe.to_csv(filename, mode='a', index=False, sep=';', header=False)


def main():
  # 循环爬取多页数据
  #for page in range(1, 114):
   # print('正在爬取:第' + str(page) + '页......')    
    # 根据之前分析的 URL 的组成结构,构造新的 url
    #if page == 1:
    #  index = 'index'
    #else:
    #  index = 'index_' + str(page)      
    # url = 'https://www.dy2018.com/2/'+ index +'.html'
    #url='https://www.dy2018.com/2/index.html'
    url='https://www.dytt8.net/html/gndy/dyzz/index.html'
    # 依次调用网络请求函数,网页解析函数,数据存储函数,爬取并保存该页数据
    html = get_data(url)
    movies = parse_data(html)
    save_data(movies)
     
    #print('第' + str(page) + '页完成!')


if __name__ == '__main__':
  print('爬虫启动成功!')
  main()
  print('爬虫执行完毕!')


3、安装aria2

安装教程,请访问我的博客第一条,安装nextcloud里面有详细的安装aria2教程


4、编写aria2下载的shell脚本

#!/bin/bash
cd /downloads
count=0
#/root/shell/movie.txt,这个地址是movie.py执行后生成的下载地址,请根据你实际的地址填写
route=/root/shell/movie.txt
name=(`awk -F ";" '{print $1}' $route | cut -d '《' -f2|cut -d '》' -f1 | cut -d '/' -f1`)
addr=(`awk -F ";" '{print $3}' $route`)
nr=`awk '{print NR}' $route | tail -n1`
prop=`awk -F ";" '{print $3}' $route | cut -d '&' -f2 | awk -F "." '{print $8}'`

for ((i=0; i<=nr; i++))
do
	let count++
	echo "正在下载第$count个电影,《${name[$i]}》"
	sudo -u www nohup aria2c -o "${name[$i]}.${prop[$i]}" "${addr[$i]}" &
	echo "第$count个电影完成创建,转后台下载中"
	sleep 2
done

rm -rf /root/shell/movie.txt

5、测试

执行脚本,请注意先后顺序,先执行python3 movie.py。等待爬取下载电影地址完成后,执行sh movie.sh。


6、增加自动任务,添加到crontab

crontab -e中增加以下信息,获取这个方法不完善,但仍在改进

#每2天运行python脚本,获取电影天堂下载地址
20 1 */2 * * python3 /root/shell/movie.py
#每2天运行一次aria2下载电影
30 1 */2 * * sh /root/shell/movie.sh


7、使用jellyfin添加媒体库

在这里,把媒体库的自动扫描调整为每个小时都扫描一次,这样可以很快的增加到媒体库。

至此,已经完成了自动从电影网下载电影,并自动扫描到媒体库,就可以不用管了,每2天自动更新。写的脚本只下载了详情页的第一页,如果想下载很多页,请把主方法中的循环打开调整数字就可以了。

相关推荐

手机最强Python编程神器,在手机上运行Python

手机编程软件有很多,大部分都很难使用,操作不灵活,甚至不能安装第三方库。...

centos7上安装python3

centos7上默认安装的是python2,要使用python3则需要自行下载源码编译安装。1.安装依赖...

python详细安装教程

本章开始,我们将详细介绍Python编程环境的搭建,工欲善其事必先利其器,所以我们这里先介绍python详细安装教程。由于Python是跨平台的,他可以运行在Windows、Linux、Mac等系统上...

再见!Python 3.6

到上月为止,Python3.6对我来说已经死掉了。...

手把手教你使用Python网络爬虫下载一本小说(附源码)

大家好,我是Python进阶者。前言前几天【磐奚鸟】大佬在群里分享了一个抓取小说的代码,感觉还是蛮不错的,这里分享给大家学习。...

Windows系统下载安装Python3.9(安装Python3.11同理)

本节我们将向大家介绍如何在Windows系统安装Python3.9开发环境,安装Python3.11下载Python3.11安装包即可,安装流程都是一样的下载安装Python3.9环境...

使用python3爬取网页,aria2下载最新电影,Jellyfin播放电影

前言:在我搭建好Jellyfin软件后,因为只能播放本地视频,就想能不能播放网络上的电影,可以每天自动下载并更新,这样就不用我手工下载好,再上传到NAS中播放。或许有更好的方法,那就是直接用电影播放源...

Python第一课:下载与安装

Python自学靠不靠谱?容易上手么?掌握周期长么?如果你真的有兴趣学习Python,那么可以告诉你,只要你兴趣还在,那么你的Python就会了一半,没错,Python就是如此简单,废话不多说,下面跟...

CentOS 7下安装Python 3.10的完整过程

1.安装相应的编译工具yum-ygroupinstall"Developmenttools"yum-yinstallzlib-develbzip2-develope...

Ubuntu 25.04发行版登场:Linux 6.14内核,带来多项技术革新

IT之家4月18日消息,科技媒体linuxiac昨日(4月17日)发布博文,报道称代号为PluckyPuffin的Ubuntu25.04发行版正式上线,搭载最新Linu...

解放双手!Python 自动化下载邮件附件,可自定义时间段

在日常工作中,我们经常需要从邮箱里下载特定日期范围内的邮件附件。想象一下,你需要收集过去几个月内客户发送的报价单、合同等附件,如果手动一个个去查找和下载,那得花费多少时间和精力呀!今天就给大家分享一个...

Python爬取下载m3u8加密视频,原来这么简单

1.前言爬取视频的时候发现,现在的视频都是经过加密(m3u8),不再是mp4或者avi链接直接在网页显示,都是经过加密形成ts文件分段进行播放。...

Python3 网络爬虫:漫画下载,动态加载、反爬虫这都不叫事

一、前言作者:JackCui经过上两篇文章的学习,Python爬虫三步走:发起请求、解析数据、保存数据,已经掌握,算入门爬虫了吗?不,还远远不够!只掌握这些,还只能算门外汉级别。今天,就来带大家继续...

win7装DeepseeK的方法

DeepSeek是一个基于Python的工具或库,因此能否在Windows7上运行取决于以下因素:---###1.**Python版本支持**-DeepSeek需要Python...

Linux环境中利用curl和wget命令下载文件的使用技巧

简介:Linux里常常用来下载文件的命令有curl命令和wget命令。wget命令一般是从特定的URL下载文件。wget有个优点,就是比较稳当,特别适合网络带宽窄或者网络不太稳定的情...