五险一金相关
五险一金是指哪些?五险:养老,医疗,失业,生育,工伤
一金:公积金
个人账户与统筹账户五险的账户会分为2部分,一部分为个人账户,一部分为统筹账户
个人账户:从你工资上扣的
统筹账户:从公司中扣的,与员工无关
社保基数是多少? 社会保险基数简称社保基数,是指职工在一个社保年度的社会保险缴费基数。它是按照职工上一年度1月至12月的所有工资性收入所得的月平均额来进行确定。社会保险缴费基数是计算用人单位及其职工缴纳社保费和职工社会保险待遇的重要依据,有上限和下限之分,具体数额根据各地区实际情况而定。
建议:够用即可
社保可以取得前提 -死亡
-移民
-转移
公积金 -这个能多交就多交(5%–12%),你交一半,公司给你交一半,可以随时提取
-租房子,新房装修等都可以提取
面试技巧1.现在全国的社保是没有进行全国联网的,因此若hr问你之前有没有交过社保,可以使用下面这句话
-我之前在上海没有交过社保,你给我办增员
2.工作经验三年,没有交过社保
-之前是在别的城市工作
-跟之前的同事合伙办了个公司
-去了个创业公司(公 ...
celery的高级使用
celery的高级使用前面两篇博客主要讲的是celery的基本使用方式以及常用的目录结构。这一篇主要讲celery定时任务的使用
12345678910111213141516171819202122232425262728其实celery定时任务非常的简单,我们只需要在celery实例化的那个文件夹中进行一些配置即可然后使用下述命令启动自动提交任务的服务:celery beat -A celery_task -l infocelery worker -A celery_task -l info -P eventlet实例:from celery import Celerybroker = 'redis://127.0.0.1:6379/1'backend = 'redis://127.0.0.1:6379/2'app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])# 时区app.conf.timezone = 'Asia ...
celery多任务结构
celery多任务结构上一篇博客我们简单的介绍了celery的简单使用,但是为了方便管理,我们一般不采用单文件的形式去使用celery,而是采用包的形式去管理clery任务
123456789celery多任务结构project #项目根目录 ├── celery_task # celery包 │ ├── __init__.py # 包文件 │ ├── celery.py # celery连接和配置相关文件,且名字必须叫celery.py │ └── tasks.py # 所有任务函数 ├── add_task.py # 添加任务 └── get_result.py # 获取结果
celery.py1234567#该文件一般就用于实例化获得celery对象,以及进行配置from celery import Celerybroker = 'redis://127.0.0.1:6379/1'backend = 'redis://127.0.0.1:6379/2'app = Cele ...
celery简单使用
celery是什么Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统
专注于实时处理的异步任务队列
同时也支持任务调度
celery的工作流程1.从消息中间件中取出任务
2.在任务执行单元中执行任务
3.将任务执行的结果进行存储
celery本身不提供消息中间件以及存储任务,但是可以简单的集合第三方提供的服务。我们一般可以选择redis作为执行任务的第三方程序
celery简单使用1234567891011121314151617181920212223242526272829303132331.安装pip install celery2.导入后实例化获得一个对象cel_obj = celery.Celery() #这里面有很多参数简单的说几个必要的参数: main #任务名 backend #存放数据结果的位置 broker #存放任务的位置实例:import celerybackend = 'redis://127.0.0.1:6379/1' #存放结果的位置broker = 'redis://127.0.0 ...
python后端项目上线
后端项目上线python的后端上线由于操作还是比较繁琐的,因此我们把他单独拉出来讲
更换配置文件在此之前我们一直使用的都是测试的配置文件,上线前我们需要改成上线的配置文件,并修改几个文件
prod.py
1234567891011121314#关闭测试环境DEBUG = False # 修改成你的公网ip地址ALLOWED_HOSTS = [ '39.99.192.127' ]# 允许跨域CORS_ORIGIN_ALLOW_ALL = True #支付宝的回调的前后端接口地址BASE_URL = 'http://39.99.192.127:8000'LUFFY_URL = 'http://39.99.192.127:80'
wsgi.py 、manage_prod.py
12#修改成上线的配置文件os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffyapi.settings.prod')
项目需要的模块进行导出1234567# ...
python项目上线
项目上线我们在上线项目之前我们需要先进行服务器的购买,可以选择阿里云的服务器,有余裕的小伙伴还可以申请一个域名,再此不一一赘述,只讲上线部分。
连接服务器我们使用xshell去连接我们的服务器,选择阿里云服务器的直接去阿里的控制台查看自己的服务器ip即可
更新软件包以及常用工具包123yum update -yyum -y groupinstall "Development tools"yum install openssl-devel bzip2-devel expat-devel gdbm-devel readline-devel sqlite-devel psmisc libffi-devel
安装mysql12345678910111213141516171819201)前往用户根目录cd ~2)下载mysql57wget http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm3)安装mysql57yum -y install mysql ...
爬虫识别验证码
图片验证码识别先安装pillow模块
pip install pillow
使用打码云网站
12345678910111213141516171819202122232425262728293031#使用方式import jsonimport requestsimport base64from io import BytesIOfrom PIL import Imagefrom sys import version_infodef base64_api(uname, pwd, img): img = img.convert('RGB') buffered = BytesIO() img.save(buffered, format="JPEG") if version_info.major >= 3: b64 = str(base64.b64encode(buffered.getvalue()), encoding='utf-8') else: b64 = ...
爬虫代理的相关内容
爬虫代理代理简单的说就是应对反扒手段的一种方式
代理的含义: 不是本地的服务器
作用: 隐藏自身的真是IP
代理ip的类型 http: 对应到与http协议对应的url中
https:应用到https对应的url中
代理ip的匿名度 透明:服务器知道使用了代理,且知道真实的ip
匿名:服务器知道使用了代理,但不知道真实的ip
高匿:服务器不知道使用了代理
request模块使用代理的方式12345proxies = { 'http': 'http://172.18.101.221:3182', 'https': 'http://172.18.101.221:1080',}proxies = proxies
xpath模块
xpath模块使用方法1234567891011121314151617181920212223242526272829模块下载pip install lxml模块导入from lxml import etree1.创建一个etree对象 #1.加载本地的文本,并获得一个对象 tree = etree.parse(filepath) #2.加载网络上获取的html内容,并获得一个对象 tree = etree.HTML('从网络上获取的html内容')2.通过xpath方法获得我们需要的内容 #通过xpath获得需要的标签 tree.xpath('标签') #通过xpath获得需要的标签内的属性 ,一个/代表一个层级,开头的//一个代表根目录,一个代表所有内容 tree.xpath('//标签[@属性 = "属性的内容"]') eg:tree.xpath('//div[@class="box1"]' ...