opencv中cv2.shape

时间: 2023-08-07 08:42:23 浏览: 53
在OpenCV中,cv2.shape()是一个函数,用于获取数组的形状(即尺寸或维数)。它的语法如下: ``` shape = cv2.shape(array) ``` 其中,array是要获取形状的数组,可以是图像、矩阵等。函数会返回一个包含数组形状信息的元组,例如(行数, 列数, 通道数)。对于灰度图像,通道数为1,对于彩色图像,通道数为3(BGR顺序)。 需要注意的是,如果要获取图像的宽度和高度,可以使用array.shape[1]和array.shape[0],而不是array.shape[0]和array.shape[1]。因为array.shape是一个元组,第一个元素表示行数,第二个元素表示列数。
相关问题

使用下面的函数进行tsp问题的选点1. 首先读取想要点阵化的图片,使用OpenCV中的cv2.imread()函数。 2. 将图片转换为灰度图像,使用OpenCV中的cv2.cvtColor()函数。 3. 调整灰度图像的大小,使其成为所需点阵的大小。可以使用OpenCV中的cv2.resize()函数。 4. 将灰度图像进行二值化处理,使其只包含黑色和白色两种颜色。可以使用OpenCV中的cv2.threshold()函数。 5. 对于每个点,根据其像素值确定它的颜色。如果像素值大于一定阈值,则将其设置为白色,否则设置为黑色。 6. 将点阵图像保存为输出文件,可以使用OpenCV中的cv2.imwrite()函数。

这是一个使用OpenCV进行TSP问题选点的示例代码: ```python import cv2 import numpy as np # 读取图片 img = cv2.imread('image.jpg') # 将图片转换为灰度图像 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 调整灰度图像大小 resized = cv2.resize(gray, (100, 100), interpolation=cv2.INTER_AREA) # 二值化处理 thresh, binary = cv2.threshold(resized, 127, 255, cv2.THRESH_BINARY) # 确定点的颜色 points = [] for i in range(binary.shape[0]): for j in range(binary.shape[1]): if binary[i][j] > 127: points.append((i, j, (255, 255, 255))) # 白点 else: points.append((i, j, (0, 0, 0))) # 黑点 # 保存点阵图像 output = np.zeros((100, 100, 3), dtype=np.uint8) for p in points: output[p[0], p[1]] = p[2] cv2.imwrite('output.jpg', output) ``` 这个示例代码将图片调整为大小为100x100的灰度图像,然后进行二值化处理,最后根据像素值确定每个点的颜色,并将点阵图像保存为输出文件。你可以根据自己的需求修改代码中的参数。

python实现opencv里的cv2.adaptiveThreshold()函数源码

### 回答1: 以下是Python中使用OpenCV库实现cv2.adaptiveThreshold()函数的源代码: ``` import cv2 # 读取图像 img = cv2.imread('image.png', 0) # 设置阈值和阈值类型 max_value = 255 adaptive_method = cv2.ADAPTIVE_THRESH_MEAN_C threshold_type = cv2.THRESH_BINARY block_size = 11 constant = 2 # 自适应阈值处理 thresh = cv2.adaptiveThreshold(img, max_value, adaptive_method, threshold_type, block_size, constant) # 显示处理结果 cv2.imshow('Adaptive Threshold', thresh) cv2.waitKey(0) cv2.destroyAllWindows() ``` 在这段代码中,首先使用cv2.imread()函数读取一张灰度图像。接下来,设置了阈值和阈值类型,包括最大值、自适应方法、阈值类型、块大小和常数。最后使用cv2.adaptiveThreshold()函数进行自适应阈值处理,并将处理结果显示出来。 ### 回答2: ```python import numpy as np def adaptiveThreshold(img, maxValue, adaptiveMethod, thresholdType, blockSize, C): """ 实现opencv中的cv2.adaptiveThreshold()函数。 参数: - img: 输入图像 - maxValue: 输出图像中超过阈值的像素值 - adaptiveMethod: 阈值计算的方法,取值为cv2.ADAPTIVE_THRESH_MEAN_C或cv2.ADAPTIVE_THRESH_GAUSSIAN_C - thresholdType: 阈值类型,取值为cv2.THRESH_BINARY或cv2.THRESH_BINARY_INV - blockSize: 邻域大小(奇数),用于计算阈值 - C: 从均值或加权均值减去的常数 返回值: - 输出图像 """ # 获取图像的高度和宽度 h, w = img.shape # 创建与输入图像相同大小的输出图像 output = np.zeros((h, w), dtype=np.uint8) # 遍历图像中的每个像素 for i in range(h): for j in range(w): # 获取当前像素的邻域 if i - blockSize // 2 < 0 or j - blockSize // 2 < 0 or i + blockSize // 2 >= h or j + blockSize // 2 >= w: # 邻域超出图像范围的处理方式 output[i, j] = 0 else: # 邻域内像素的平均值或加权平均值 if adaptiveMethod == cv2.ADAPTIVE_THRESH_MEAN_C: threshold = np.mean(img[i-blockSize//2:i+blockSize//2+1, j-blockSize//2:j+blockSize//2+1]) elif adaptiveMethod == cv2.ADAPTIVE_THRESH_GAUSSIAN_C: threshold = np.mean(img[i-blockSize//2:i+blockSize//2+1, j-blockSize//2:j+blockSize//2+1]) else: raise ValueError("Invalid adaptive method!") # 二值化像素值 if img[i, j] > threshold - C: output[i, j] = maxValue else: output[i, j] = 0 # 根据阈值类型对输出图像进行相应的处理 if thresholdType == cv2.THRESH_BINARY_INV: output = cv2.bitwise_not(output) return output ``` 这段代码实现了OpenCV库中的`cv2.adaptiveThreshold()`函数。它通过传入的参数来计算图像的自适应阈值,并根据阈值类型对图像进行二值化处理。代码中首先创建一个与输入图像大小相同的输出图像,然后遍历图像中的每个像素。对于每个像素,根据邻域大小计算出邻域内像素的平均值或加权平均值作为阈值,并根据阈值类型进行二值化处理。最后,根据是否选择了`cv2.THRESH_BINARY_INV`阈值类型对输出图像进行相应的处理。最后,返回输出图像。 ### 回答3: 对于给定的图像和自适应阈值方法,cv2.adaptiveThreshold()函数可以根据输入的参数计算并应用自适应阈值,并将结果图像返回。 下面是一个用Python实现的伪代码示例: ``` import cv2 import numpy as np def adaptiveThreshold(image, maxValue, adaptiveMethod, thresholdType, blockSize, C): # 获取图像的尺寸 height, width = image.shape # 初始化输出图像 output = np.zeros((height, width), np.uint8) # 循环遍历图像中的每个像素点 for i in range(height): for j in range(width): # 计算当前像素点的局部区域 top = max(0, i - blockSize // 2) bottom = min(height - 1, i + blockSize // 2) left = max(0, j - blockSize // 2) right = min(width - 1, j + blockSize // 2) neighborhood = image[top:bottom + 1, left:right + 1] # 根据自适应方法计算局部区域的阈值 if adaptiveMethod == cv2.ADAPTIVE_THRESH_MEAN_C: threshold = np.mean(neighborhood) - C elif adaptiveMethod == cv2.ADAPTIVE_THRESH_GAUSSIAN_C: threshold = np.mean(neighborhood) - C * np.std(neighborhood) # 根据阈值和阈值类型对当前像素点进行二值化 if image[i, j] > threshold: output[i, j] = maxValue else: output[i, j] = 0 # 返回二值化结果图像 return output ``` 这段代码首先传入图像、最大值、自适应阈值方法、阈值类型、块大小和常数值。 然后,代码创建一个与输入图像大小相同的输出图像,并应用了一个嵌套的循环来遍历图像中的每个像素点。 在每个像素点处,代码计算了该像素点周围局部区域的阈值,该阈值根据选择的自适应方法和常数值计算得到。 最后,根据阈值和阈值类型,代码对当前像素点进行二值化,并将二值化结果保存在输出图像中。 最后,代码返回输出图像作为函数的结果。

相关推荐

解释如下代码:def draw_matches(img1, kp1, img2, kp2, matches, color=None): """Draws lines between matching keypoints of two images. Keypoints not in a matching pair are not drawn. Args: img1: An openCV image ndarray in a grayscale or color format. kp1: A list of cv2.KeyPoint objects for img1. img2: An openCV image ndarray of the same format and with the same element type as img1. kp2: A list of cv2.KeyPoint objects for img2. matches: A list of DMatch objects whose trainIdx attribute refers to img1 keypoints and whose queryIdx attribute refers to img2 keypoints. """ # We're drawing them side by side. Get dimensions accordingly. # Handle both color and grayscale images. if len(img1.shape) == 3: new_shape = (max(img1.shape[0], img2.shape[0]), img1.shape[1]+img2.shape[1], img1.shape[2]) elif len(img1.shape) == 2: new_shape = (max(img1.shape[0], img2.shape[0]), img1.shape[1]+img2.shape[1]) new_img = np.zeros(new_shape, type(img1.flat[0])) # Place images onto the new image. new_img[0:img1.shape[0],0:img1.shape[1]] = img1 new_img[0:img2.shape[0],img1.shape[1]:img1.shape[1]+img2.shape[1]] = img2 # Draw lines between matches. Make sure to offset kp coords in second image appropriately. r = 2 thickness = 1 print(len(kp1),len(kp2), len(matches) ) if color: c = color for m in matches[0:20]: # Generate random color for RGB/BGR and grayscale images as needed. if not color: c = np.random.randint(0,256,3) if len(img1.shape) == 3 else np.random.randint(0,256) # So the keypoint locs are stored as a tuple of floats. cv2.line(), like most other things, # wants locs as a tuple of ints. c = [255,255,255] end1 = tuple(np.round(kp1[m.queryIdx].pt).astype(int)) end2 = tuple(np.round(kp2[m.trainIdx].pt).astype(int) + np.array([img1.shape[1], 0])) cv2.line(new_img, end1, end2, c, thickness) cv2.circle(new_img, end1, r, c, thickness) cv2.circle(new_img, end2, r, c, thickness) plt.figure(figsize=(15,15)) plt.imshow(new_img) plt.show()

import cv2 import numpy as np # 读取图像 img1 = cv2.imread('D:/wzk/JIEMIAN/images/yi_duibidu.jpg') img2 = cv2.imread('D:/wzk/JIEMIAN/images/er_duibidu.jpg') # 判断图像是否读取成功 if img1 is None or img2 is None: print("Failed to read image!") exit() # 将图像转化为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 使用Shi-tomasi算法检测关键点 corners1 = cv2.goodFeaturesToTrack(gray1, 500, 0.01, 10) corners2 = cv2.goodFeaturesToTrack(gray2, 500, 0.01, 10) # 调整图像大小 corners1 = cv2.resize(corners1, (640, 480)) corners2 = cv2.resize(corners2, (640, 480)) # 使用Lucas-Kanade算法进行光流跟踪 lk_params = dict(winSize=(15, 15), maxLevel=2, criteria=(cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03)) p1, st, err = cv2.calcOpticalFlowPyrLK(gray1, gray2, corners1, None, **lk_params) # 计算转换矩阵 M, mask = cv2.findHomography(p1, corners2, cv2.RANSAC, 5.0) # 将图像1应用转换矩阵 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) # 将图像2拼接到图像1后面 result[0:img2.shape[0], img1.shape[1]:img1.shape[1] + img2.shape[1]] = img2 # 显示拼接后的图像 cv2.imshow("Result", result) cv2.waitKey(0) cv2.destroyAllWindows()解决cv2.error: OpenCV(4.7.0) D:\a\opencv-python\opencv-python\opencv\modules\video\src\lkpyramid.cpp:1260: error: (-215:Assertion failed) (npoints = prevPtsMat.checkVector(2, CV_32F, true)) >= 0 in function 'cv::anonymous-namespace'::SparsePyrLKOpticalFlowImpl::calc'

import cv2 import numpy as np # 创建混合高斯模型 fgbg = cv2.createBackgroundSubtractorMOG2(history=500, varThreshold=50, detectShadows=False) # 打开视频文件 cap = cv2.VideoCapture('t1.mp4') # 获取视频帧率、宽度和高度 fps = int(cap.get(cv2.CAP_PROP_FPS)) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 创建前景视频对象 fg_out = cv2.VideoWriter('foreground_video.avi', cv2.VideoWriter_fourcc(*'XVID'), fps, (width, height)) # 初始化上一帧 prev_frame = None # 循环遍历视频帧 while True: ret, frame = cap.read() if not ret: break # 高斯模型背景减除法 fgmask = fgbg.apply(frame) # 缩放比例 scale_percent = 50 # 计算缩放后的新尺寸 width = int(frame.shape[1] * scale_percent / 100) height = int(frame.shape[0] * scale_percent / 100) dim = (width, height) # 缩放图像 frame = cv2.resize(frame, dim, interpolation=cv2.INTER_AREA) fgmask = cv2.resize(fgmask, dim, interpolation=cv2.INTER_AREA) # 形态学开运算去除噪点 kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3)) opening = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel) # 寻找轮廓并计算周长 contours, hierarchy = cv2.findContours(opening, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for cnt in contours: perimeter = cv2.arcLength(cnt, True) if perimeter > 500: # 画出矩形框 x, y, w, h = cv2.boundingRect(cnt) cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) # 视频稳定 if prev_frame is not None: # 计算帧间差分 diff = cv2.absdiff(frame, prev_frame) # 计算运动向量 _, motion = cv2.optflow.calcOpticalFlowFarneback(prev_frame, frame, None, 0.5, 3, 15, 3, 5, 1.2, 0) # 平移每一帧 M = np.float32([[1, 0, motion[:,:,0].mean()], [0, 1, motion[:,:,1].mean()]]) frame = cv2.warpAffine(frame, M, (frame.shape[1], frame.shape[0])) diff = cv2.warpAffine(diff, M, (diff.shape[1], diff.shape[0])) # 显示帧间差分 cv2.imshow('diff', diff) # 更新上一帧 prev_frame = frame.copy() cv2.imshow('frame', frame) cv2.imshow('fgmask', fgmask) if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放对象 cap.release() fg_out.release() cv2.destroyAllWindows()改为4.5.3版本的opencv能用的程序

myimage = cv.cvtColor(img, cv.COLOR_BGR2GRAY) ret, img1 = cv.threshold(myimage, 100, 255, cv.THRESH_BINARY_INV) # cv.namedWindow('img1',0) # cv.resizeWindow('img1',600,600) # cv.imshow('img1',img1) # print(type(img1)) # print(img1.shape) # print(img1.size) # cv.waitKey(2) kernel1 = np.ones((10, 10), np.uint8) # 做一次膨胀 img2 = cv.dilate(img1, kernel1) # cv.namedWindow('img2', 0) # cv.resizeWindow('img2', 600, 600) # cv.imshow('img2', img2) contours, hierarchy = cv.findContours(img2, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_NONE) # print(len(contours),hierarchy) for i in range(len(contours)): area = cv.contourArea(contours[i]) if area < 150: # '设定连通域最小阈值,小于该值被清理' cv.drawContours(img2, [contours[i]], 0, 0, -1) # import pdb;pdb.set_trace() # cv.imwrite('yuchuli.jpg', img2) ###########预处理 # import pdb;pdb.set_trace() not_row = img2[[not np.all(img2[i] == 0) for i in range(img2.shape[0])], :] bot_col = not_row[:, [not np.all(not_row[:, i] == 0) for i in range(not_row.shape[1])]] # import pdb;pdb.set_trace() # print(bot_col.shape) if bot_col.shape[0] > bot_col.shape[1]: if bot_col.shape[1] % 2 == 0: img_new = np.concatenate((np.zeros([bot_col.shape[0], int((bot_col.shape[0] - bot_col.shape[1]) / 2)]), bot_col, np.zeros([bot_col.shape[0], int((bot_col.shape[0] - bot_col.shape[1]) / 2)])), 1) if bot_col.shape[1] % 2 == 1: img_new = np.concatenate((np.zeros( [bot_col.shape[0], int((bot_col.shape[0] - bot_col.shape[1] - 1) / 2)]), bot_col, np.zeros( [bot_col.shape[0], int((bot_col.shape[0] - bot_col.shape[1] + 1) / 2)])), 1) cv.imwrite('fenge.jpg', img_new) ###########分割 file_path = 'fenge.jpg' return file_path这个具体以何种方法进行分割的

最新推荐

recommend-type

Python OpenCV之图片缩放的实现(cv2.resize)

在Python的计算机视觉库OpenCV中,图片处理是其核心功能之一。图片缩放是常见的图像操作,可以改变图像的尺寸大小。`cv2.resize`函数是OpenCV用于执行此任务的关键工具,它允许我们根据需要调整图像的宽度和高度。...
recommend-type

python cv2.resize函数high和width注意事项说明

在Python的计算机视觉库OpenCV中,`cv2.resize()`函数是用于图像缩放的核心工具。这个函数允许我们将图像调整到指定的尺寸,这对于预处理图像数据、适应不同显示设备或者进行其他图像处理操作非常有用。然而,在使用...
recommend-type

opencv中图像叠加/图像融合/按位操作的实现

在OpenCV中,`cv2.bitwise_and()`函数常用于实现按位与操作,它能够根据一个掩模(mask)来选取源图像中的特定部分。掩模通常是一个8位单通道数组,与源图像尺寸相同。例如,我们可以利用掩模将一个图像(如logo)...
recommend-type

解决python cv2.imread 读取中文路径的图片返回为None的问题

使用cv2读取图片时,输出图片形状大小时出现报错“ ‘NoneType’ object has no attribute shape”,后来排查发现读取图片的返回值image为None, 这就说明图片根本就没有被读取。 下面图片是问题问题解决后,为了更...
recommend-type

基于联盟链的农药溯源系统论文.doc

随着信息技术的飞速发展,电子商务已成为现代社会的重要组成部分,尤其在移动互联网普及的背景下,消费者的购物习惯发生了显著变化。为了提供更高效、透明和安全的农产品交易体验,本论文探讨了一种基于联盟链的农药溯源系统的设计与实现。 论文标题《基于联盟链的农药溯源系统》聚焦于利用区块链技术,特别是联盟链,来构建一个针对农产品销售的可信赖平台。联盟链的优势在于它允许特定参与方(如生产商、零售商和监管机构)在一个共同维护的网络中协作,确保信息的完整性和数据安全性,同时避免了集中式数据库可能面临的隐私泄露问题。 系统开发采用Java语言作为主要编程语言,这是因为Java以其稳定、跨平台的特性,适用于构建大型、复杂的企业级应用。Spring Boot框架在此过程中起到了关键作用,它提供了快速开发、模块化和轻量级的特点,极大地简化了项目的搭建和维护。 数据库选择MySQL,因其广泛应用于企业级应用且性能良好,能够支持大规模的数据处理和查询。系统设计分为前台和后台两大部分。前台界面面向普通用户,提供一系列功能,如用户注册和登录、查看农产品信息、查看公告、添加商品到购物车以及结算和管理订单。这些功能旨在提升用户体验,使消费者能够便捷地获取农产品信息并完成购买。 后台则主要服务于管理员,包括用户管理、农产品分类管理、基础信息管理(如农药信息)、订单管理和公告管理等。这些功能确保了信息的准确记录和管理,同时也支持对系统的有效运维。 关键词"农产品"、"农药"、"溯源"、"SpringBoot框架"和"MySQL"强调了论文的核心研究内容,即通过联盟链技术强化农产品的全程追溯能力,确保食品安全,提高消费者信任度,同时展示了所用的技术栈和平台选择。 这篇论文不仅探讨了在当前电商环境下如何利用区块链技术改进农药溯源系统,还深入剖析了其实现过程和关键组件,为农产品供应链的透明化和信息化提供了一个实用的解决方案。这样的系统在保障消费者权益、推动绿色农业发展等方面具有重要意义。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Python代码雨与可维护性:保持代码清晰易维护,避免代码雨困扰

![Python代码雨与可维护性:保持代码清晰易维护,避免代码雨困扰](https://img-blog.csdnimg.cn/769c66afbeac442ca7b77161762c73a4.png) # 1. Python代码雨的概念 ### 1.1 代码雨的定义和危害 代码雨是指在Python代码中出现大量重复、冗余和难以维护的代码片段。它会对代码的可读性、可维护性和可扩展性产生严重影响。 ### 1.2 导致代码雨的常见原因 * **缺乏模块化和封装:**代码没有被合理地组织成模块和类,导致代码分散且难以管理。 * **命名不规范和注释不足:**变量、函数和类的命名不一致或不直
recommend-type

编写代码,实现seq2seq结构中的编码器和解码器。

编写代码实现seq2seq结构中的编码器和解码器,需要先了解seq2seq模型的基本原理。seq2seq模型包含编码器和解码器两个部分,其中编码器将输入序列映射为固定长度的向量表示,而解码器则使用该向量表示来生成输出序列。以下是实现seq2seq结构中的编码器和解码器的基本步骤: 1. 编写编码器的代码:编码器通常由多个循环神经网络(RNN)层组成,可以使用LSTM或GRU等。输入序列经过每个RNN层后,最后一个RNN层的输出作为整个输入序列的向量表示。编码器的代码需要实现RNN层的前向传播和反向传播。 2. 编写解码器的代码:解码器通常也由多个RNN层组成,与编码器不同的是,解码器在每个
recommend-type

基于Python的猫狗宠物展示系统.doc

随着科技的进步和人们生活质量的提升,宠物已经成为现代生活中的重要组成部分,尤其在中国,宠物市场的需求日益增长。基于这一背景,"基于Python的猫狗宠物展示系统"应运而生,旨在提供一个全方位、便捷的在线平台,以满足宠物主人在寻找宠物服务、预订住宿和旅行时的需求。 该系统的核心开发技术是Python,这门强大的脚本语言以其简洁、高效和易读的特性被广泛应用于Web开发。Python的选择使得系统具有高度可维护性和灵活性,能够快速响应和处理大量数据,从而实现对宠物信息的高效管理和操作。 系统设计采用了模块化的架构,包括用户和管理员两个主要角色。用户端功能丰富多样,包括用户注册与登录、宠物百科、宠物信息查询(如品种、健康状况等)、宠物医疗咨询、食品推荐以及公告通知等。这些功能旨在为普通宠物主人提供一站式的宠物生活服务,让他们在享受养宠乐趣的同时,能够方便快捷地获取所需信息和服务。 后台管理模块则更为专业和严谨,涵盖了系统首页、个人中心、用户管理、宠物信息管理(包括新品种添加和更新)、宠物申领流程、医疗预约、食品采购和管理系统维护等多个方面。这些功能使得管理员能够更好地组织和监管平台内容,确保信息的准确性和实时性。 数据库方面,系统选择了MySQL,作为轻量级但功能强大的关系型数据库,它能有效存储和管理大量的宠物信息数据,支持高效的数据查询和处理,对于复杂的数据分析和报表生成提供了可靠的基础。 这个基于Python的猫狗宠物展示系统不仅解决了宠物主人在出行和日常照顾宠物时的信息查找难题,还提升了宠物行业的数字化管理水平。它的实施将推动宠物服务行业向着更智能化、个性化方向发展,极大地提高了宠物主人的生活质量,也为企业和个人提供了新的商业机会。关键词“宠物”、“管理”、“MySQL”和“Python”恰当地概括了该系统的主题和核心技术,突显了其在现代宠物行业中的重要地位。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依