Object.prototype.call理解
今天看到了一个骚写法,之前几乎没用到过类型判断,好奇所以查了一下 export function is(val: unknown, type: string) { return toString.call(val) === `[object ${type}]`; } /** * @description: 是否为函数
今天看到了一个骚写法,之前几乎没用到过类型判断,好奇所以查了一下 export function is(val: unknown, type: string) { return toString.call(val) === `[object ${type}]`; } /** * @description: 是否为函数
输入dnn模型文件找到脸的位置把脸裁剪出来,转化为blob批量将图片转化为blob和标注,保存为npz文件import cv2 import numpy as np import matplotlib.pyplot as plt import tqdm import os,glob %matplotlib inline face_detector = cv2.dnn.readNetFromCa
看代码,fit代表将传入的数组训练,transform代表转换fit_transform代表将传入的数组训练并转换返回enc = OneHotEncoder() enc.fit([[0,0,3],[1,1,0],[0,2,1],[1,0,2]]) array = enc.transform([[0,1,3],[1,1,1]]) print(array) # 输出 # (0, 0) 1.0
python的PIL有alpha_composite函数可以直接实现,下面是个人理解的实现图解与PIL无关参考:https://cloud.tencent.com/developer/ask/sof/106576245(但这个文章是偷的)
注意:请使用conda创建新环境安装,否则可能会出现各种各样的bug实现思路:使用pixellib把视频的人使用实例分割,存储为灰度图,如果有多个人则合并成一张图。每一帧存储为一张遮住图import cv2 import numpy as np from pixellib.instance import instance_segmentation class VideoProcessor: