机器学习/算法工程师面试题目与答案-深度学习部分1

机器学习/算法工程师面试题目与答案-深度学习部分

      • BatchNormalization的作用
      • 梯度消失
      • 循环神经网络,为什么好?
      • 什么是GroupConvolution
      • 什么是RNN
      • 神经网络中权重共享的是?
      • 神经网络激活函数?
      • 为什么在深度学习中常进行finetuning
      • 画GRU结构图
      • 什么是dropout
      • LSTM每个门的计算公式
      • HOG算法原理
      • HOG算子是怎么求梯度的
      • DropConnect的原理
      • 介绍一下GMM-HMM
      • Pytorch

BatchNormalization的作用

BatchNormalization (BN) 主要用来解决深度神经网络训练过程中的内部协变量偏移问题,通过对每一层输入进行归一化处理,使得各层的学习更加独立高效。BN还有助于缓解梯度消失问题,可以使用更高的学习率,加速模型收敛。

梯度消失

在深度神经网络中,梯度消失是指在反向传播过程中,梯度随着层数增加而逐渐变小,导致网络深层部分权重更新非常缓慢,从而使得训练效率低下。通常由于使用了如Sigmoid或Tanh这类导数值容易饱和的激活函数引起。

循环神经网络,为什么好?

循环神经网络(RNNs)具有以下主要优点,使其在处理序列数据方面表现出色:

  1. 时间依赖性:RNN 能有效处理和预测序列中数据点的时间关系,适用于语音识别、语言建模等任务。
  2. 可变长度输入:RNN 可处理不同长度的输入序列,适合自然语言处理等领域。
    参数共享:通过在序列的每个时间步使用相同的权重,RNN 减少了总参数数量,提高了泛化能力。
  3. 上下文信息利用:RNN 能够利用前面的输入信息来影响后续的输出,对于需要考虑整个输入历史的任务(如机器翻译)非常有效。
    然而,RNN也存在梯度消失或爆炸的问题,影响训练的稳定性和效率。为改善这些问题,已发展出LSTM和GRU等更高级的变体

什么是GroupConvolution

Group convolution是卷积神经网络中一种特殊的卷积方式,它将输入的特征图分成若干组,每组独立进行卷积操作。这种方法可以减少参数数量,降低计算复杂度,同时增强网络的表达能力。

  1. 主要特点:
    参数减少:每个滤波器只处理部分输入通道,减少了总参数量。
    计算效率提高:通过减少乘加操作,提升计算效率。
    正则化效果:增加模型的正则化,有助于减少过拟合。
  2. 缺点:
    信息流受限:限制了不同组间的信息交流,可能影响特征捕捉能力。
    设计复杂性:需要适当选择组数,增加设计难度。

什么是RNN

RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络,它通过将前一时间步的隐藏状态传递到当前时间步,从而能够维持一定的记忆性。

  1. 主要特点:
    处理时间序列:能够处理和记忆输入序列中的时间动态。
    参数共享:在序列的每一个时间步中重复使用相同的权重,减少模型复杂性。
    灵活的输入长度:可以接收不同长度的输入序列。
  2. 工作原理:
    在每个时间步,RNN接收当前输入和上一时间步的隐状态,更新当前的隐状态,并可能产生一个输出。
  3. 挑战:
    梯度消失和爆炸:在长序列中训练时可能面临梯度消失或爆炸的问题。
    计算效率:由于序列依赖性,难以并行处理序列数据。
    为了克服这些挑战,更先进的变体如LSTM(长短期记忆)和GRU(门控循环单元)被开发出来,它们通过引入门控机制改善了长期依赖的学习能力和稳定性。
### 模型不收敛的原因 训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些? 模型不收敛并不一定意味着模型无效。可能的原因包括学习率设置不当、数据预处理错误、模型结构不适合处理特定的数据类型、过拟合或欠拟合等。调整这些因素可能帮助模型收敛。 ### 图像处理中锐化和平滑的操作 锐化是通过增强图像的边缘和细节来使图像看起来更清晰,常用的方法包括使用拉普拉斯算子。平滑(或模糊)操作通过减少图像的高频成分来降低噪声和细节,常用的方法有均值滤波、高斯滤波等 ### VGG使用3*3卷积核的优势是什么? 3x3是最小尺寸的卷积核可以捕捉像素间的空间关系,多个3x3卷积层叠加可以等效于更大的感受野(例如两个3x3卷积层叠加相当于一个5x5卷积核的效果),同时参数更少、计算效率更高。 ### Relu比Sigmoid的效果好在哪里? Relu(线性整流函数)比Sigmoid函数在深层网络中效果好,主要因为它解决了梯度消失问题,且计算上更简单高效。 - 解决梯度消失问题 Sigmoid 函数的输出范围是 (0, 1),在输入值非常大或非常小的时候,Sigmoid函数的梯度接近于0,这会导致梯度消失问题,使得网络深层中的权重难以更新。 ReLU 函数在正数部分的梯度恒为1,因此在正输入值的情况下不会发生梯度消失问题,有助于在训练深层网络时保持较好的梯度流。

神经网络中权重共享的是?

权重共享主要用于卷积神经网络中,同一卷积核在整个输入特征图上滑动计算,这样可以显著减少模型的参数数量,降低过拟合风险,同时提高计算效率。

神经网络激活函数?

激活函数在神经网络中用于添加非线性决策边界,使得网络可以学习更复杂的模式。常见的激活函数包括ReLU、Sigmoid、Tanh等。

为什么在深度学习中常进行finetuning

在深度学习中,通常会finetuning已有的成熟模型,再基于新数据,修改最后几层神经网络权值,为什么?
Finetuning允许模型在一个已经预训练好的基础上,针对新的特定任务进行调整。这样可以利用预训练模型在大量数据上学到的通用特征,只需少量数据就能达到较好的性能。

画GRU结构图

GRU(Gated Recurrent Unit)结构包括重置门和更新门,具体结构图涉及输入、隐藏状态和门控制的交互。 ### Attention机制的作用 Attention机制可以使模型在处理信息时更加聚焦于重要的部分,提高模型的解析能力,常见于NLP和图像处理领域,如机器翻译的Transformer模型。 ### Lstm和Gru的原理 LSTM(Long Short-Term Memory)通过引入遗忘门、输入门和输出门来控制信息的保留与遗忘,解决长序列数据的依赖问题。GRU是LSTM的变种,结构更简单,只有两个门(更新门和重置门),计算效率更高,但在某些任务上可能不如LSTM强大。

什么是dropout

Dropout是一种正则化技术,通过在训练过程中随机“丢弃”一部分神经网络的节点,来防止模型过拟合。
(Dropout 是一种技巧,用于帮助神经网络避免过于依赖训练数据中的特定模式,从而防止过拟合。想象一下,你在组装一个团队来解决问题,但为了确保团队不过分依赖某个关键成员,你决定在每次讨论时随机让一些成员休息。这样,整个团队就会学习如何在不完全的情况下也能找到解决方案,使得团队整体更加灵活和强大。

在神经网络中,Dropout 的做法类似于这种随机让一些“团队成员”(神经元)休息的策略。在模型训练的每一步中,每个神经元都有一定的概率被“关闭”,不参与这一次的学习过程。这样一来,网络就不能依赖于任何单个神经元,而是必须寻找更多的可能性来得出正确的输出。

训练完成后,在实际使用模型时,所有的神经元都会被启用,但它们的输出会根据之前的丢弃概率进行调整,以确保模型表现的一致性。这种方法简单而有效,广泛用于提高各种神经网络的性能和稳定性。)

LSTM每个门的计算公式

Input Gate:
i t = σ ( W i i x t + b i i + W h i h t − 1 + b h i ) i_t = \sigma(W_{ii} x_t + b_{ii} + W_{hi} h_{t-1} + b_{hi}) it=σ(Wiixt+bii+Whiht1+bhi)

Forget Gate:
f t = σ ( W i f x t + b i f + W h f h t − 1 + b h f ) f_t = \sigma(W_{if} x_t + b_{if} + W_{hf} h_{t-1} + b_{hf}) ft=σ(Wifxt+bif+Whfht1+bhf)

Candidate Cell State:
C ~ t = tanh ⁡ ( W i c x t + b i c + W h c h t − 1 + b h c ) \tilde{C}_t = \tanh(W_{ic} x_t + b_{ic} + W_{hc} h_{t-1} + b_{hc}) C~t=tanh(Wicxt+bic+Whcht1+bhc)

Cell State Update:
C t = f t ⊙ C t − 1 + i t ⊙ C ~ t C_t = f_t \odot C_{t-1} + i_t \odot \tilde{C}_t Ct=ftCt1+itC~t

Output Gate:
o t = σ ( W i o x t + b i o + W h o h t − 1 + b h o ) o_t = \sigma(W_{io} x_t + b_{io} + W_{ho} h_{t-1} + b_{ho}) ot=σ(Wioxt+bio+Whoht1+bho)

Hidden State:
h t = o t ⊙ tanh ⁡ ( C t ) h_t = o_t \odot \tanh(C_t) ht=ottanh(Ct)

公式内的变量如 W W W, b b b, x t x_t xt, h t − 1 h_{t-1} ht1, 和 C t − 1 C_{t-1} Ct1 分别代表权重矩阵、偏置项、当前输入、前一时间步的隐藏状态和细胞状态。

HOG算法原理

HOG(Histogram of Oriented Gradients)算法主要通过计算图像局部区域内的梯度方向直方图来描述这些区域的外观和形状,广泛用于图像中的物体检测。
HOG算法的基本步骤包括:

  1. 归一化颜色和伽马校正:为了减少图像光照变化的影响,通常先对图像进行颜色归一化或进行伽马校正。
  2. 计算梯度:计算图像每个像素的梯度(大小和方向)。梯度方向代表了图像的边缘方向,而大小给出了边缘的强度。
  3. 单元划分:将图像划分为小的连接区域,称为单元(cells)。每个单元通常是6x6或8x8的像素块。
  4. 计算直方图:在每个单元中,根据梯度方向将梯度大小累积到一个方向直方图中。例如,可以使用9个方向的直方图(0-180度,每20度一个桶)。
  5. 块归一化:为了进一步降低光照的影响,通常需要对相邻的单元组成的更大的区域(称为块)进行局部归一化。每个块可以包含2x2个单元,并且块与块之间可以有重叠。归一化可以基于L2范数、L1范数或其他规则。
  6. 特征描述符构建:将所有的块描述符串联起来形成最终的特征向量,用于后续的学习和分类任务。

HOG算子是怎么求梯度的

在HOG(Histogram of Oriented Gradients)算法中,计算图像梯度是一个关键步骤。图像梯度计算可以通过以下差分公式完成:

G x = I ( x + 1 , y ) − I ( x − 1 , y ) G_x = I(x+1, y) - I(x-1, y) Gx=I(x+1,y)I(x1,y)
G y = I ( x , y + 1 ) − I ( x , y − 1 ) G_y = I(x, y+1) - I(x, y-1) Gy=I(x,y+1)I(x,y1)
其中, G x G_x Gx G y G_y Gy 分别表示水平和垂直方向上的梯度, I ( x , y ) I(x, y) I(x,y) 是图像在位置 ( x , y ) (x, y) (x,y) 的像素值。
接下来,我们可以计算每个像素的梯度大小和方向:
Magnitude = G x 2 + G y 2 \sqrt{G_x^2 + G_y^2} Gx2+Gy2
Angle = tan ⁡ − 1 ( G y G x ) \tan^{-1}\left(\frac{G_y}{G_x}\right) tan1(GxGy)
这里, tan ⁡ − 1 \tan^{-1} tan1 表示反正切函数,用于计算梯度的方向。这两个结果(大小和方向)随后用于构建方向梯度直方图,这是HOG特征描述符的核心部分。

DropConnect的原理

具体来说,对于网络中的每个权重,都有一定概率 𝑝 将其临时置为零,而剩下的权重则保持不变。这样,每次前向传播时,网络的结构都会略有不同,这有助于模拟出训练多个不同网络的效果,并通过平均它们的预测来减少过拟合。

  • 与 Dropout 的对比
    DropConnect 可以视为 Dropout 的一个一般化形式:
    Dropout 随机地将整个神经元(包括其所有输出连接)的输出置为零。
    DropConnect 则是随机选择单个权重并将其置为零。
    这意味着 DropConnect 在理论上提供了更高的模型复杂度和更细粒度的网络结构调整,因为它可以独立地断开任何单个连接,而不是整个神经元的所有输出。
  • 实践:
    DropConnect 的实现涉及以下步骤:
    1.权重掩蔽:对于神经网络中的每层,生成一个与权重矩阵同形状的随机矩阵。矩阵中的每个元素都是独立抽取的,根据预设的保持概率 1−p(p是丢弃概率)来决定元素是 0 还是 1。
    2.应用掩蔽:在每次前向传播过程中,将生成的掩蔽矩阵与权重矩阵进行元素乘法(Hadamard 乘积)。这样,一部分权重会临时变为零。
    3.训练和反向传播:网络如常进行前向传播、损失计算及反向传播。在反向传播过程中,只更新那些在前向传播中未被置零的权重。

介绍一下GMM-HMM

  1. GMM-HMM模型
    在GMM-HMM模型中,HMM用于建模时间序列数据中的状态转移,而GMM用于建模在给定状态下的观测数据的概率分布。具体来说:
  • HMM负责模型的时间依赖性:它允许我们建模序列中隐状态的转移。
  • GMM负责建模观测数据的复杂分布:在传统的HMM中,每个状态通常与一个简单的概率分布(如高斯分布)相关联。在GMM-HMM中,每个状态的观测概率是由多个高斯分布的混合来描述的,增加了模型描述数据的灵活性。
  1. 应用:语音识别
    在语音识别中,GMM-HMM非常流行。HMM用于建模语音信号的时间序列特性(例如,语音单元的开始和结束),而GMM用于建模在这些语音单元中观察到的声学信号的概率分布。每个HMM状态可以对应于声音的一部分(如音素),而GMM则负责精确地建模这些音素的声学特征。

  2. 训练方法
    GMM-HMM模型通常使用EM算法(期望最大化算法)进行参数估计。在语音识别的场景中,还会使用诸如Baum-Welch算法(一种特殊的EM算法,用于HMM)来调整模型参数,使其更好地拟合训练数据。

总结而言,GMM-HMM是一个强大的模型,能够有效地结合序列数据中的时间依赖性和观测数据的复杂统计特性,这使得其在多个领域内都有着广泛的应用。

Pytorch

整体架构说一下,新加一个层需要哪些步骤,卷积是怎么实现的,多卡机制,数据并行还是模型并行?

  1. PyTorch 整体架构概览
    PyTorch 是一个以张量(tensor)和动态计算图(autograd system)为核心的深度学习框架,主要包括以下几个组件:
  • Tensor: PyTorch 的基本数据结构,类似于 NumPy 的 ndarray,但可以在 GPU 上运行以加速计算。
  • Autograd: 自动微分系统,用于自动计算梯度,核心是 torch.autograd。
  • nn Module: 提供神经网络层的实现,例如 torch.nn.Linear,torch.nn.Conv2d 等。
  • Optimizers: 提供优化算法,如 SGD, Adam 等,位于 torch.optim。
  • Utilities: 如数据加载和处理工具(torch.utils.data)等。
  1. 添加新的层
    要在 PyTorch 中添加自定义层,您需要定义一个继承自 torch.nn.Module 的类。这通常涉及以下步骤:
  • 定义类:创建一个新的类,继承自 torch.nn.Module。
  • 初始化函数:在 init 方法中初始化层的参数。
  • 前向传播函数:实现 forward 方法,定义层在进行前向传播时的计算逻辑。
    例如,创建一个简单的全连接层:
import torch.nn as nn
import torch

class CustomLinear(nn.Module):
    def __init__(self, input_features, output_features):
        super(CustomLinear, self).__init__()
        self.weights = nn.Parameter(torch.randn(input_features, output_features))
        self.bias = nn.Parameter(torch.randn(output_features))

    def forward(self, x):
        return x @ self.weights + self.bias
  1. 卷积的实现
    在 PyTorch 中,卷积层主要通过 torch.nn.Conv2d 实现。该层在内部使用高效的库(如 cuDNN 或 Intel MKL),这些库对卷积算法进行了高度优化。实际的卷积操作可以视为输入特征图和一组可学习的滤波器之间的滑动窗口运算。
  2. 多卡机制
    PyTorch 支持数据并行和模型并行两种方式来使用多个 GPU。
  • 数据并行(Data Parallelism):这是最常见的并行处理形式,将数据分批处理到多个 GPU 上,每个 GPU 计算模型的一个子集,然后合并结果。这可以通过 torch.nn.DataParallel 或 torch.nn.parallel.DistributedDataParallel 实现。
    示例使用 DataParallel:
model = models.resnet50()
if torch.cuda.device_count() > 1:
    model = nn.DataParallel(model)
model.to(device)
  • 模型并行(Model Parallelism):当模型太大而无法在一个 GPU 上完全放下时使用。这种方法涉及到在不同的 GPU 上运行模型的不同部分。用户需要手动指定每个模型部分的 GPU。

示例模型并行:

class ModelParallel(nn.Module):
    def __init__(self, device0, device1):
        super(ModelParallel, self).__init__()
        self.layer1 = nn.Linear(10, 10).to(device0)
        self.layer2 = nn.Linear(10, 5).to(device1)

    def forward(self, x):
        x = self.layer1(x)
        x = x.to(device1)
        return self.layer2(x)

https://www.cnblogs.com/alexme/p/11361563.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/571126.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

JavaEE初阶之IO流快速顿悟一(超详细)

目录 题外话 正题 IO流 Java.io.FileInputStream int read() int read(byte[] b) 关于异常 Java7的新特性: try-with-resources ( 资源自动关闭) Java.io.FileOutputStream void write(int b) void write(byte[] b) 小结 题外话 十年青铜无人问,一朝顿悟冲王者 前天…

网工内推 | 深圳网工专场,上市公司、国企,安全认证优先

01 深圳市同为数码科技股份有限公司武汉分公司 招聘岗位:网络工程师 职责描述: 1、负责网络设备的管理、调试、配置、维护等; 2、负责信息安全网络安全设备、系统的运维; 3、负责整体网络系统技术的相关工作,包括架构…

使用C++实现尾插式循环链表结构

在编码中避免不了使用链表,特别是循环链表,很多同学使用时为了省事直接使用C STL库中的链表实现,这样当然很简单也不容易出错,但同时也不可避免的带来了一些问题: 是半个黑盒,虽然能看源码,但是…

如何免费生成网址二维码?支持自定义设计的二维码生成器

在国内外的许多创意广告中都在使用网址二维码。比如:大众汽车隐藏在汽车零件上的企业招聘二维码,扫码后进入大众汽车官网在线申请投递简历;帕森斯设计学院的户外广告中打印在红色沙滩椅上的二维码,扫描后可以在线申请暑期课程&…

详细分析mysqlslap的基本知识 | 压力测试(附Demo)

目录 前言1. 基本知识2. 参数解读2.1 auto-generate-sql2.2 only-print2.3 iterations2.4 并发处理参数 前言 对数据库进行压力测试,对此补充这方面的详细知识点 1. 基本知识 mysqlslap 是 MySQL 自带的用于模拟数据库负载的压力测试工具 可以模拟多个客户端并发…

【Java | 多线程】LockSupport 的使用和注意事项

了解一下 LockSupport LockSupport是一个类,位于java.util.concurrent.locks包中,提供了基本的线程同步机制。 LockSupport的主要作用是挂起和唤醒线程。它提供了两个主要的静态方法:park()和unpark()。 park():用于挂起当前线…

AI论文速读 |从图结构角度统一车道级交通预测:基准和基线

题目:Unifying Lane-Level Traffic Prediction from a Graph Structural Perspective: Benchmark and Baseline 作者:Shuhao Li, Yue Cui, Jingyi Xu, Libin Li, Lingkai Meng, Weidong Yang(杨卫东), Fan Zhang, Xiaofang Zhou(周晓方) 机构&#xff…

【Python】Python函数的黑魔法:递归,嵌套函数与装饰器

欢迎来到CILMY23的博客 本篇主题为: Python函数的黑魔法:递归,嵌套函数与装饰器 个人主页:CILMY23-CSDN博客 系列专栏:Python | C | C语言 | 数据结构与算法 感谢观看,支持的可以给个一键三连&#xff…

redis基于Stream类型实现消息队列,命令操作,术语概念,个人总结等

个人大白话总结 1 在Redis Stream中,即使消息被消费者确认(acknowledged, ACK),消息也不会自动从Stream数据结构中删除。这与Kafka或RabbitMQ等传统消息队列系统的做法不同,在那些系统中,一旦消息被消费并…

废液收集系统物联网远程监控解决方案

废液收集系统物联网远程监控解决方案 在面对日益严峻的环保压力和严格的法律法规要求下,构建一套高效、智能的废液收集系统物联网远程监控解决方案显得尤为重要。该方案旨在通过深度融合物联网技术、云计算、大数据分析等先进手段,实现对废液收集系统的…

RuoYi-Vue-Plus (SaToken 注解鉴权)

一、SaInterceptor 注解鉴权和路由拦截鉴权 拦截器:SaInterceptor 实现类位置: cn.dev33.satoken.interceptor.SaInterceptor 功能:Sa-Token 综合拦截器,提供注解鉴权和路由拦截鉴权能力 /*** 创建一个 Sa-Token 综合拦截器&…

测试用例设计方法-异常测试

飞的最高的海鸥,能看到最远的奇景。大家好,继续给大家分享如何进行异常测试,首先要做好异常测试,需要我们对被测系统进行全面的了解,熟悉被测系统的功能、架构和运行机制,然后在这个基础上尽可能覆盖各种的…

再谈“协议”

1.认识协议 之前我们使用TCP的方式实现了一个服务器,而TCP是面向字节流的,而UDP是面向数据报的,接下来通过一个例子区分两种的区别。 UDP面向数据报:就如同发快递,你发多少个快递,对面就收到多少个快递&am…

探索React Router:实现动态二级路由

我有一个路由配置的二维数组,想根据这个数组结合路由组件来动态生成路由,应该怎么样实现。在 React Router 6 中渲染二级路由的方式跟 React Router 65相比有一些变化,但核心思路仍然是利用 Route 组件和路由嵌套的方式。下面是具体的步骤: 定义路由数组…

OpenCompass 大模型评测实战——作业

OpenCompass 大模型评测实战——作业 一、基础作业1.1、使用 OpenCompass 评测 internlm2-chat-1_8b 模型在 C-Eval 数据集上的性能1.1.1、安装基本环境1.1.2、解压数据集1.1.3、查看支持的数据集和模型1.1.4、启动评测 二、进阶作业2.1、将自定义数据集提交至OpenCompass官网 …

WIFISKY 7层流控路由器 confirm.php RCE漏洞复现

0x01 产品简介 WIFISKY-7层流控路由器是一款可用于家庭或办公环境的无线路由器,具备流控功能以优化网络流量和提供更稳定的网络连接。该路由器采用了7层流控技术,能够依据网络数据包的内容进行智能管理,从而实现对网络流量的精细化控制和优化。这种技术可以提升网络的整体性…

vscode 使用文件模板功能来添加版权信息

vscode 新建文件的时候,自动填充作者及版权信息 无需使用插件,操作如下: 选择 “首选项(Preferences)”。在搜索框中输入 “file template” 或者 “文件模板”,然后选择相关的设置项。 {"C_Cpp.clang_format_fallbackSt…

ctfshow web入门 SQl注入 web191--web200

web191 多了一个正则绕过 上脚本布尔盲注 用ord #author:yu22x import requests import string url"http://70adf0cb-2208-4974-b064-50a4f4103541.challenge.ctf.show/api/index.php" sstring.ascii_lettersstring.digits flag for i in range(1,45):print(i)for j…

【熵与特征提取】从近似熵,到样本熵,到模糊熵,再到排列熵,包络熵,散布熵,究竟实现了什么?(第六篇)——“散布熵”及其MATLAB实现

今天讲散布熵,之前用了几篇文章分别讲述了功率谱熵、奇异谱熵、能量熵、近似熵、样本熵、模糊熵、排列熵、包络熵这8种类型的熵: Mr.看海:【熵与特征提取】基于“信息熵”的特征指标及其MATLAB代码实现(功率谱熵、奇异谱熵、能量…

脚手架搭建项目package.json配置中依赖的版本问题

脚手架搭建项目package.json配置中依赖的版本问题 问题描述:项目刚搭建好,运行没有问题,为什么过一段时间,删除node_modules,或者重新安装包依赖,然后项目某些地方出现莫名的错误(依赖库的地方…
最新文章