gradient-descent专题提供gradient-descent的最新资讯内容,帮你更好的了解gradient-descent。
我是机器学习的新手,正在尝试实现梯度下降。我的代码看起来像这样,并已为所有参数生成NaN值:
我正在研究神经网络,我发现使用<code>*.grad_zero()</code>可以正确获得损失函数值,并且收敛到零。其中,
我正在尝试使用MATLAB中的Gradient Descent算法计算全局最小值。 派生形式为: <a href="https://i.stack.imgur.com/EJk
我正在使用从预先训练的VGG16和VGG19模型中提取的功能。这些特征是从上述网络的第二个完全连接层(FC2
我正在尝试针对19维参数向量θ最小化目标函数J(θ)。 J(θ)是一个光滑的非线性函数,因此我在R中
我正在使用<code>trust-constr</code>优化器来最小化该功能: <pre><code>gen_result = minimize(gen_loss, gen_weights, met
<strong>我正在尝试将简单线性回归应用于梯度下降</strong> 但我被困在这里 我收到一个错误ValueError
我的实现(见下文)给出了标量值3.18,这不是正确的答案。该值应为0.693。我的代码在哪里偏离方程式
帮我计算6 * 6矩阵的伴随数。 我的矩阵: 行1:6 2 3 0 0 2.78 第2行:2 2 3 0 0 1.32 第3行:3 3 5 0 0 1
我不知道如何解决这个问题,我只是一个初学者。下面是代码 <pre><code> def sigmoid(X, theta): z = np.dot(
我正在尝试将随机梯度下降(SGD),具有平均的随机梯度下降(SGA)和随机平均梯度下降(SAG)相互比
凸性和平滑性是一个充分条件 使用梯度下降 (GD) 方法最小化损失函数。凸度也是 梯度下降成功训练模型
所有人。 我是机器学习的初学者,现在开始学习有关梯度下降的知识。但是,我遇到了一个大问题
我需要转换此函数,该函数实现了梯度下降算法: <pre><code>function [xopt, fopt, niteration, gnorm, dx] = grad_des
使用梯度下降的线性回归 参考:<a href="https://towardsdatascience.com/linear-regression-using-gradient-descent-in-10-
这不是直接与编程相关的问题,但老实说,我不知道还有什么要问的(如果您知道某个论坛更适合该问
我正在尝试手动实现梯度下降,并遇到以下错误: <blockquote> beta中的错误-((alpha / 6132)* sum(yha
在运行大型RNN网络时,我遇到了一些内存问题(GPU),但我想使批处理大小保持合理,因此我想尝试进
背景: 我正在使用LSTM(内置在tensorflow.js中)基于输入文本文件生成文本。我将文本文件拆分为样
我有一组数据,该数据包含24个数据点X,0和1个标签Y 我试图编写自己的代码来研究物流回归<br/> <strong>