Unwarp UV Modifier文档
模型是从长方体做出来的,一直带有长方体的默认UV坐标。我们需要清除后才能展开自己的UV.
[UnwrapUVW]修改器的主要功能是对模型的面进行展开。[Edit UVWs]视窗是对展开的UV进行进一步的调整。二者结合,可以顺利完成UV的展开操作
三维空间的坐标是X、Y、Z,对应三维空间的贴图坐标是U、V、W
给模型加棋盘格贴图的目的是为了方便查看贴图哪个部分发生了变形。一般要求棋盘格在正确地被贴上后,表现为整体均匀的正方形
操作中要注意,各面之间的共用边是要进行重合的。这样在后期的贴图绘制中,面与面之间如果有图像的关联,就不会发生错误。
思考
展UV,MAX提供了各种工具,本质都是提供不同的切割方式,摊开方式,不同的切法会导致不同的平摊结果,要为不同的模型找到合适的切割方法
EPIC客户端安装提示错误EOS-ERR-1603
在C:\Program Files (x86)里,创建Epic Games文件夹,然后从EPIC更新即可
3DsMax UV修改器
MAX中展UV通过UVW Mapping(planner模式)和Unwrap UVW来操作
UVW Mapping
以框为平面展开模型网格,就是确定从哪里展开
Unwrap UVW
展开模型UV的工具
UVW Map Modifier
通过将贴图坐标应用于对象,UVW 贴图修改器控制贴图和程序材质在对象表面上的显示方式。映射坐标指定如何将位图投影到对象上。UVW 坐标系类似于 XYZ 坐标系。位图的 U 轴和 V 轴对应于 X 轴和 Y 轴。W轴对应Z轴,一般只用于程序贴图。位图的坐标系可以在材质编辑器中切换到 VW 或 WU,在这种情况下,位图将被旋转和投影,使其垂直于表面
打开方式
选择一个对象。> “修改”面板> “修改器列表” > “对象空间修改器” > “ UVW 贴图”
标准菜单:选择一个对象。> “修改器”菜单> “ UV 坐标” > “ UVW 贴图”
增强菜单:选择一个对象。>修改器菜单> UV、贴图和材质> UVW 贴图
默认情况下,球体和长方体等基本对象具有贴图坐标,放样对象和 NURBS ...
hexo-auto-category分类文件夹不显示问题
测试过程
环境:Hexo 5.4.0,WIN10 20H2
建立一个文件夹并建立新文档
先在本地hexo clean & hexo g,查看[BlogSource]\public\categories\下是否出现需要的分类文件夹
结果:未出现
hexo s查看本地网页是否有分类文件夹显示
结果:有。这里就很奇怪,显示的路径下在本地文件中并不存在
问题可能在下图中的Generated: categories [null]这里,原因未知,abbrlink并未出错
尝试以下流程:
hexo clean
hexo g
hexo g
结果出现了应有的分类文件夹
hexo s 查看本地网页同样正确
最后:修改github action的workflow文件,写入两次hexo g,生成网页后查看结果正确
具体原因未知,方案可用
爬虫实践
豆瓣
在pycharm run界面中搜索 ctrl+f
选择需要的数据
起始标签
代码
12345678910111213141516171819202122232425262728293031323334353637# 拿到网页源代码 requests# 通过re来提取想要的有效信息 reimport requestsimport reimport csv # 以 , 做分割url = "https://movie.douban.com/top250"headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36"}resp = requests.get(url, headers=headers)page_content = resp.text# 解析数据,选择起始标签,.* ...
数据解析
大多数情况下,我们并不需要整个网页的内容,只是需要那么一小部分,这就涉及到了数据提取的问题
re解析
正则表达式
抓取到的网页源代码本质上就是一个超长的字符串,想从里面提取内容。用正则很合适
[[正则表达式]]
bs4解析
xpath解析
Web请求过程剖析
Web请求全过程
请求到返回
在返回结果中便将信息写在html中,再进行渲染
服务器渲染:在服务器中直接把数据和html整合在一起,统一返回给浏览器
在页面源代码中能看到数据
客户端渲染:第一次请求不会返回数据只给一个html骨架,第二次要数据才会返回,并在客户端完成页面拼合
第一次请求返回结果
在页面源代码中看不到数据,但能看到数据的url
熟练使用浏览器抓包工具,数据具有规则性
第二次请求返回数据,这里返回的数据和骨架拼合
HTTP协议
http或https
url传输的时候遵循的协议
协议:就是两个计算机之间为了能够流畅的进行沟通而设置的一个君子协定。常见的协议有TCP/IP SOAP协议,HTTP协议,SMTP协议等算.…
HTTP协议,Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(www:World Wide Web)服务器传输超文本到本地浏览器的传送协议.直白点儿,就是浏览器和服务器之间的数据交互遵守的就是HTTP协议.
HTTP协议把一条消息分为三大块内容。无论是请求还是响应都是三块内容
请求头中最常见的一些重要内容(爬虫需要):
User-Agent:请求载体的身份标识(用啥发送的请求)
Referer:防盗链(这次请求是从哪个页面来的?反爬会用到)
cookie:本地字符串数据信息(用户登录信息,反爬的token)
响应头中一些重要的内容:
cookie:本地字符串数据信息(用户登录信息,反爬的token)
各种神奇的莫名其妙的字符串(这个需要经验了,一般都是token字样,防止各种攻击和反爬)
请求方式:
GET:显式提 ...
python爬虫学习之始
问题
使用anaconda制作环境时,提示environment location direction is not empty,是因为之前已经创建过这个项目,导致有存留
在C:\Anaconda\envs目录下删掉之前项目即可
开始
爬虫君子协议:robots.txt
尽量不做恶意爬虫
注意环境变量添加好
如果输入python打开了微软商店,记得将这个变量路径下移
注意编码方式
unicode不能作为存储和传输,需要编码 gbk或utf-8,所以爬取的内容是乱码就需要注意编码方式
win系统默认 gbk ,而多数内容默认utf-8,在爬取后要进行按utf-8编码打开
百度爬取是http协议,不是https
第一个爬虫
爬虫:通过编写程序来获取到互联网上的资源
b’代表字节,需要在python中解码,且下文中有提到 charset=utf-8
print(resp.read().decode("utf-8"))解码后
获取百度页面源代码
12345678910# 需求:用程序模拟浏览器。输入一个网址。从该网址中获取到资源或者内容from urllib. ...
requests入门
安装模块
安装requests,pip install requests
可以直接在pycharm的终端中安装
网络问题可以去国内源下载 pip install -i https://xxx
简单爬虫
在浏览器地址栏中的链接都是使用的GET方式提交
resp.可获取网页中请求的不同内容
结果被浏览器认为是程序发出的请求,需要绕过
获取user-Agent,模拟成正常浏览器
添加一个变量
12345678910111213import requestsurl = 'https://www.sogou.com/web?query=周杰伦'# 参数是一个字典dic = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36"}# 简单处理一个反爬resp = requests.get(url, ...