Repository

PaddlePaddle/Paddle

PArallel Distributed Deep LEarning: Machine Learning Framework from Industrial Practice (『飞桨』核心框架,深度学习&机器学习高性能单机、分布式训练和跨平台部署)
18934 4563 736 15391
  • 000
请提出你的问题 Please ask your question 想起一个服务,为了防止跑一半被其他程序挤掉,想要通过export FLAGS_fraction_of_gpu_memory_to_use=0.7 强制占70%的卡,但是发现最终起的服务并没有占到这么多的卡,不管我如何调至这个参数,最终服务所占的显存都是不变的,请教一下怎么控制我的服务强制占一定比例的卡呀~ 如流...
  • 000
请提出你的问题 Please ask your question 你好,请问如何把paddle训练好的transformer机器翻译模型进行部署?我正在做一个小翻译系统,需要对单条文本进行推理。因为咱们官方提供的inference实际上是批量推理,先把批量的文本存在文件中,然后对该文件进行分词和bpe处理,再把得到的bpe文件加载成data_loader,最后对data_...
  • 000
请提出你的问题 Please ask your question 在Dataloader中,如果num_worker大于0,dataloader起的线程中的numpy的random seed不满足我自己设置的。 我的网络在评估的时候需要固定np.random.seed,我期望的是每个worker的numpy seed是一致的,这样对每个样本以同样的随机性进行预处理,然而paddle的dataloader在起线程的时候...
  • 000
需求描述 Feature Description 任务目标:正在做的项目是结合Paddle以及PCL库做算法应用。 需求场景:需要Paddle库支持更多版本的boost库,以方便可以编译使用PCL库。为什么需要用此功能:需要在代码中加入并使用PCL库做点云处理以及可视化等功能,然而直接将二者放在一起编译会报boost依赖冲突的问题(其中Paddle库为2.3版...
  • 000
请提出你的问题 Please ask your question 您好,我们在复现模型的过程中发现二者精度无法对齐。翻阅源代码发现,adadelta优化器在参数更新时并没有 乘lr,详见链接,但是pytorch在更新时会乘lr(详见链接),因此我们推测是二者更新机制上的差异导致了复现精度无法对齐。 我们使用的paddlepaddle版本是2.3.2,请问其实现方...
  • 000
需求描述 Feature Description 任务目标:提升训练batch size; 需求场景:搜索训练负采样个数显著影响模型效果; 功能描述:https://blog.csdn.net/lavinia_chen007/article/details/113609838,,参考pytorch的gradient checkpointing功能,现有的recompute不支持DDP分布式训练,DP模式训练效率太低。 替代实现 Alternati...