deep-learning专题提供deep-learning的最新资讯内容,帮你更好的了解deep-learning。
<a href="https://i.stack.imgur.com/zkfLA.png" rel="nofollow noreferrer">DispNet</a> 我试图了解DispNet架构 它们
我正在尝试构建一个单词嵌入keras模型,在该模型中,我将输入的文本转换为相应的输入id和掩码(例如
我正在处理一个分割问题,在该问题中我将分割蒙版堆叠在7个不同的图像通道中。每个图像具有以下尺
我正在尝试编写一个crnn模型,该模型从图像中读取文本。 这是我用于训练的文件路径: <pre><cod
我有下面的代码来计算卷积层的MACC。 <pre><code> def count_conv2d(layers, log=False): if log: print(layers.g
我有一个Conv2D图层,输入尺寸为256×226×3: <pre class="lang-py prettyprint-override"><code>self.conv1 = self.track_laye
这是我要构建的模型: 一个具有4个输入的模型,这些输入将它们嵌入并放入计分结果中 <pre><code>impor
我正在尝试使用张量流和keras(用于<a href="https://www.kaggle.com/mlg-ulb/creditcardfraud" rel="nofollow noreferrer">credit
<pre><code>from keras.datasets import imdb (X_train, y_train), (X_test, y_test) = imdb.load_data(path=&#34;imdb.npz&#34;,
有人可以举例说明<code>ClientID TestDate NumberOp MeanOp 5C 2019-12-12 0 NaN </code>如何将评论转换
<strong>我无法使用categorical_crossentropy运行我的神经网络,但是当我使用二进制文件时,我的准确性不高
我正在使用tensorflow和keras中的递归神经网络层进行实验,并且正在研究recurrent_initializer。我想进一步了
我的问题是如何计算运行深度学习网络所需的ram内存? 我之所以问这个问题,是因为我对某些网络配置
我正在训练一些ML和DL算法来比较性能,但是我无法找到一种方法来防止fast.ai自动输出。例如,在Keras-TF
我有一个包含1万行和以下列的数据框: <pre><code> DatabaseReference comments = FirebaseDatabase.getInstance().getRefe
我不熟悉Torch,也不熟悉LSTM,我正在为具有以下数据结构的数据集进行时间序列销售预测: <a href="https:/
我想用组规范化<strong>批处理规范化层</strong>(仅在<strong> TensorFlow </strong>中)。有什么建议? <em>解释</
pytorch代码如下。前一个时期计算出的变量如何用于 在下一个时期计算损失函数? <pre><code>for epoch in
我使用约4600张按70:30比例分割的训练X射线图像。我以为我有一个很好的训练样本集,但是模型出乎意料的
我有3222个.wav数据,其结构如下所示:dict输出: <pre><code>final = {&#39;item1.wav&#39;:Numpy array(99*160),