撰写于:  浏览:24 次  分类:网站公告
事情概况最近跟踪报道一件事,有个南京大学的硕士,想发国外文章攒点名气,找了几篇论文想了一个点子,但是苦于自己无法实现代码,随后在网上找了一个技术人士。对方辛辛苦苦干了10个多月,最后赵某人以代码质量未达到要求,只想支付1500元,从而产生纠纷,双方开始打官司了。本文会持续跟踪报道此事的最新状况...

撰写于:  浏览:13654 次  分类:网站公告
各位读者朋友,大家好,感谢大家对本站的关注和热爱!本站的核心是PyTorch技术的分享以及深度学习电子书的分享,尤其是电子书的免费分享,已经持续了五六年了。天下没有不散的宴席,凡事都有终结的时候,自2024年11月开始,本站所有的电子书不再公开分享了。不再分享的原因有很多,比如经常被恶意举报,还有就是找书的人太多了,忙不过来了。站长鼓励大家购买正版[...]

撰写于:  浏览:254 次  分类:PyTorch 教程
1、Softmax函数简介Softmax是一种激活函数,它可以将一个数值向量归一化为一个概率分布向量,且各个维度上的概率值相加之后的和为1。在深度学习领域,Softmax函数可以用来作为神经网络的最后一层,用于多分类问题的输出。另外,Softmax层常常和交叉熵损失函数一起结合使用。2、Softmax函数的计算公式对于向量中的每个元素,Softma[...]

撰写于:  浏览:247 次  分类:PyTorch 教程
在Pytorch中torch.nn.Embedding层的作用很简单,它的本质就是一张查找表。如下代码所示:import torch import torch.nn as nn torch.manual_seed(1) embedding = nn.Embedding(5, 3) print(embedding.weight)打印出的结果为:[...]

撰写于:  浏览:252 次  分类:PyTorch 教程
在一门语言中,词语的位置和顺序对句子意思表达至关重要的。传统RNN模型天然有序,在处理句子时,以序列的模式逐个处理句子中的词语,这使得词语的顺序信息在处理过程中被天然的保存下来,并不需要额外的处理。由于Transformer模型没有RNN(循环神经网络)或CNN(卷积神经网络)结构,句子中的词语都是同时进入网络进行处理,所以没有明确的关于单词在源句[...]

撰写于:  浏览:207 次  分类:网站公告
自从2024年9月开始,飞燕网挂上了谷歌广告。虽然网站上线数年了,一直没有挂过广告,因为我觉得广告会影响阅读体验。之所以放弃了坚持数年的初心,是因为我在做尝试,觉得不应该总是一种状态,应该尝尝鲜。很多事情不亲自试一试,只凭设想,很难了解事物最真实的一面。目前每日的谷歌广告收入差不多是1元,这是一笔微不足道的的收入,但是却打开了我的思想大门。自从挂上[...]

撰写于:  浏览:249 次  分类:PyTorch 教程
自从PC诞生以来,驱动程序就一直如影随形,与硬件产业一同发展。显卡驱动是连接操作系统与显卡硬件的桥梁,显卡驱动程序使操作系统能够识别和使用显卡的基本显示功能。即使没有安装专门的驱动程序,大多数操作系统也能通过通用驱动支持显卡的基本显示功能,但这通常无法充分发挥显卡的全部性能。因为显卡驱动程序包含了一系列优化算法,可以提升显卡处理图形和视频的能力。对[...]

撰写于:  浏览:266 次  分类:PyTorch 教程
1、cuDNN是什么?cuDNN全称NVIDIA CUDA® Deep Neural Network library, 是一个用于深度神经网络的GPU加速库。cuDNN包含了为神经网络中常见的计算任务提供高度优化的实现。包括前向卷积、反向卷积、注意力机制、矩阵乘法(matmul)、池化(pooling)和归一化(normalization)等。cu[...]

撰写于:  浏览:281 次  分类:PyTorch 教程
1、torch.log()函数定义torch.log(input, *, out=None) 其作用是返回一个新的张量,其中包含输入元素的自然对数。计算公式如下所示:$$ y_i = log_e(x_i) $$2、torch.log()函数代码举例:>>> a = torch.rand(5) * 5 >>> a[...]

撰写于:  浏览:605 次  分类:网站公告
备注:本文更新于2024年10月10日很早之前,大约在2020年左右,我就想做一个关于面试的项目,后来在2022年开春之后正式启动了这个项目,并且我独自完成了网站的功能开发。当时,我组建了一个工作室来运营这个项目。大约半年的时间,这个工作室就解散了,因为我找不到发展的方向,每个月给人发工资的压力很大。最近几年一直忙着接各种AI相关的外包,在今年7月[...]

撰写于:  浏览:665 次  分类:网站公告
前言随着网站流量越来越大,十分感谢大家对本站的支持!为了给大家更多的学习指导,我决定搞深度学习公开课。同时,为了感谢大家对《PyTorch面试精华》的支持,本次深度学习公开课以面试天下会员为中心,当然公开课是免费的,任何人都可以参加,一年只举办两次,分布在春季的3月25日和秋季的10月25日晚上9点到10点。大家通过腾讯会议就可以参加的。腾讯会议链[...]

撰写于:  浏览:421 次  分类:PyTorch GPU 并行训练
CUDA_VISIBLE_DEVICES环境变量的简单介绍CUDA 编程模型中的环境变量在 CUDA 应用程序开发中具有重要作用,如需使用,需要在程序运行前在系统中进行设置。环境变量 CUDA_VISIBLE_DEVICES 用于指定 CUDA 应用程序将在哪些 GPU 设备上运行,通常用于控制程序在多 GPU 系统上的 GPU 使用情况,对于单 [...]

撰写于:  浏览:335 次  分类:PyTorch GPU 并行训练
在PyTorch中,DataParallel 是一个模块,它允许你在多个GPU上分布式地训练模型。为了让输入数据自动移动到GPU,你需要做的是将模型和数据包装在 DataParallel 中。以下是一个简单的例子,展示如何使用 DataParallel:import torch import torch.nn as nn from torch.ut[...]

撰写于:  浏览:335 次  分类:PyTorch 教程
前言做为深度学习从业者,最基本的要求是要会配置PyTorch的开发环境。我们在配置环境的时候都知道有显卡驱动、CUDA、cuDNN、CUDA Toolkit、PyTorch等组件,而且不同的组件还有不同的版本,搞得人十分头大,彻底明白这些东西如何选择和配置对我们来说是十分有必要的,下面我给大家介绍一下这些组件的定义与相互关联。显卡驱动(GPU Dr[...]

撰写于:  浏览:455 次  分类:PyTorch 教程
transforms.normalize()函数介绍transforms属于torchvision模块的方法,它是常见的图像预处理的方法,以提升泛化能力。transforms包括的数据预处理方法有:数据中心化、数据标准化、缩放、裁剪、旋转、翻转、填充、噪声添加、灰度变换、线性变换、仿射变换、亮度、饱和度及对比度变换等transforms.norma[...]

撰写于:  浏览:358 次  分类:PyTorch 教程
在深度学习中,卷积神经网络用于处理图像。为了构建训练神经网络,我们需要处理大量图像。有几种方法可以在 PyTorch 中加载计算机视觉数据集,具体取决于数据集的格式和项目的具体要求。一种流行的方法是使用内置的 PyTorch 数据集类,例如 torchvision.datasets。它提供了一种方便的方法来加载和预处理常见的计算机视觉数据集,例如C[...]

关注公众号,每天学一个AI知识

    友情链接