网站可以做二维码吗网站规划与建设进度

张小明 2026/1/1 13:33:52
网站可以做二维码吗,网站规划与建设进度,什么网站可以找人做软件,网站不能访问如何做冗余引言#xff1a;目标决定损失函数选择推荐系统通常采用两阶段架构#xff1a;召回#xff08;Recall#xff09;与精排#xff08;Ranking#xff09;。两个阶段的优化目标存在本质差异#xff0c;这直接决定了损失函数的选择。召回阶段从海量候选集#xff08;百万至亿…引言目标决定损失函数选择推荐系统通常采用两阶段架构召回Recall与精排Ranking。两个阶段的优化目标存在本质差异这直接决定了损失函数的选择。召回阶段从海量候选集百万至亿级中筛选出数百至数千个候选物品。这一阶段的核心目标是学习高质量的向量表示使得相关物品在向量空间中与用户表示接近无关物品远离。召回阶段关注的是向量空间的区分性与检索效率而非精确的概率预测。评估指标通常为RecallK或命中率衡量的是相关物品是否被成功检索到候选集中。精排阶段在有限候选集数十至数百个上进行精细打分与排序。这一阶段需要输出校准良好的概率或分数直接决定最终展示顺序与业务指标CTR、CVR、GMV强相关。精排阶段强调预测的准确性、概率的可解释性以及对细微差异的区分能力。基于这一差异召回阶段应采用能够学习区分性向量表示的损失函数对比学习或局部Listwise方法精排阶段应采用能够输出校准概率的损失函数Pointwise方法为主可结合Pairwise增强排序能力。第一部分Pointwise损失函数——独立样本的绝对值预测Pointwise方法将每个用户-物品交互样本视为独立单元将推荐问题转化为分类或回归任务。模型为每个样本预测一个绝对值点击概率、评分等损失函数度量预测值与真实值之间的差异。二元交叉熵Binary Cross-Entropy二元交叉熵是精排阶段最常用的损失函数适用于CTR和CVR预估。对于样本真实标签为模型预测概率为损失定义为二元交叉熵的核心优势在于其输出具有明确的概率解释。在最大化似然估计框架下最小化交叉熵等价于最大化数据的似然概率因此训练后的模型输出可以直接解释为点击概率。这使得下游的概率校准、阈值决策和业务指标计算都具有坚实的理论基础。二元交叉熵对正负样本不平衡敏感。在推荐场景中点击样本正样本通常占比不足5%导致模型倾向于预测所有样本为负学习困难。此外该损失函数对标注噪声敏感错误标注的样本会产生较大梯度影响模型收敛。均方误差Mean Squared Error均方误差用于显式反馈场景例如用户评分预测。对于真实值与预测值损失定义为均方误差的优势在于其凸性质和简单的梯度形式优化过程稳定。但该损失对异常值极为敏感单个偏离样本可能产生过大的损失值导致模型被异常值主导。在CTR预估等二分类任务中均方误差缺乏概率解释不应作为首选。Focal LossFocal Loss在二元交叉熵基础上引入难易样本调制机制专门针对极度不平衡数据设计。对于真实标签预测概率损失定义为其中为类别平衡因子为聚焦参数。当时Focal Loss退化为标准交叉熵。当时易分类样本高置信度预测正确的损失被抑制模型被迫关注难分类样本。Focal Loss的关键在于调制因子。对于正样本当模型已经高置信预测为正类时该样本几乎不产生梯度。反之对于难分类样本较小调制因子接近1保持正常的梯度强度。这种机制无需复杂的采样策略即可应对类别不平衡。实践中的典型取值范围为1到3通常设置为正样本比例的倒数或通过验证集调优。需要注意的是Focal Loss引入了两个超参数调优成本相对较高。Pointwise方法的适用场景Pointwise损失函数适用于精排阶段具体包括需要输出校准概率用于后续决策如广告出价、预算分配的场景业务指标直接依赖于绝对概率值如eCPM计算的场景样本带有显式标注评分、满意度等级需要回归预测的场景。Pointwise方法的核心优势是输出的可解释性与校准性。训练稳定收敛快速输出值可以直接用于概率校准或阈值决策。实现简单易于工程化部署。Pointwise方法的主要局限在于忽略了样本间的相对关系。两个样本的绝对概率可能都不准确但只要相对顺序正确排序效果就可以接受。Pointwise方法无法利用这种相对信息可能导致排序指标与损失函数的优化方向不一致。Pointwise方法的工程实践在精排阶段二元交叉熵应作为首选基线。如果正负样本比例低于1:20应首先尝试Focal Loss设置为正样本比例的倒数或类别加权策略。训练完成后必须对输出概率进行校准temperature scaling或isotonic regression以确保预测概率与真实点击率对齐。如果业务既需要准确的概率又需要良好的排序效果可以采用混合损失函数主损失使用二元交叉熵辅助损失使用Pairwise方法通过权重系数如0.9:0.1平衡两者。这种策略在工业界已有成功应用案例。第二部分:Pairwise损失函数——相对顺序的优化Pairwise方法将推荐问题建模为样本对的相对排序任务。模型不再预测单个样本的绝对值,而是学习任意两个样本之间的相对顺序。训练时构造样本对(通常是一个正样本与一个负样本),要求模型给正样本的分数高于负样本。BPR LossBayesian Personalized RankingBPR Loss是隐式反馈场景下最常用的Pairwise损失函数。对于用户、正样本物品用户有交互与负样本物品用户无交互模型分别预测分数和。BPR假设用户偏好正样本多于负样本建模其后验概率并最大化对应的损失函数为其中为sigmoid函数为正则化系数。该损失函数等价于对分数差应用逻辑回归要求正样本分数显著高于负样本。BPR Loss直接优化排序关系与AUC指标高度相关。在隐式反馈数据上仅有点击、购买等正向行为记录BPR是标准的强基线方法。但该方法依赖于未交互即负样本的假设这在实际场景中并不总是成立用户可能因为未曝光而未交互而非不感兴趣因此负样本采样策略至关重要。Hinge LossHinge Loss源于支持向量机的最大间隔思想。对于正样本分数与负样本分数设定间隔损失定义为该损失函数仅在正负样本分数差小于时产生惩罚。一旦分数差超过间隔损失为零对应样本不再产生梯度。这种设计鼓励模型在正负样本之间建立明确的安全边界通常具有更好的泛化性能。Hinge Loss的间隔参数需要根据任务特性调优。间隔过小模型区分能力不足间隔过大优化困难收敛缓慢。另一个技术细节是Hinge Loss在边界点不可导实践中通常使用次梯度方法或平滑近似版本。RankNet LossRankNet Loss是微软提出的经典Pairwise方法为后续的LambdaRank和LambdaMART奠定了基础。对于应当满足排在之前的样本对RankNet首先计算模型认为优于的概率其中和是模型对两个样本的打分。然后将该概率与真实目标概率若确实应排在前则为1否则为0计算交叉熵当时该损失简化为等价于BPR Loss的单对形式。RankNet的优势在于其损失函数处处可微梯度形式简洁便于基于梯度的优化算法。RankNet与所有Pairwise方法共享的局限是训练复杂度。对于个样本理论上存在个样本对实际训练中必须通过采样控制计算量。此外Pairwise方法关注局部的两两比较未直接建模列表级别的全局排序质量如NDCG可能存在优化目标与评估指标的偏差。Pairwise方法的适用场景Pairwise损失函数适用于以下场景评估指标以AUC或排序相关指标为主的任务隐式反馈数据仅有点击、曝光记录无显式评分且希望直接优化正例排在负例前的相对关系精排阶段需要增强排序能力而非仅关注概率校准的情况。Pairwise方法直接建模相对排序与AUC等排序指标在优化方向上更为一致。通过调整负样本采样策略可以有效控制模型学习的难度边界在合适的负样本分布下收敛速度快于Pointwise方法。Pairwise方法的主要挑战是训练复杂度。每个正样本需要配对多个负样本样本对数量随负样本数线性增长。更关键的是方法效果高度依赖负样本质量。随机负采样多为简单负样本对模型提升有限困难负样本模型当前容易混淆的负样本训练效率高但采样成本大且容易引入噪声导致过拟合。Pairwise方法的工程实践在隐式反馈场景下BPR Loss应作为标准基线。初始配置为每个正样本随机采样1到5个负样本学习率设置为到L2正则化系数为到。负采样策略对效果影响显著。推荐采用混合策略70%随机负采样保证样本多样性加30%困难负采样基于当前模型分数排序选择分数较高但实际为负的样本。困难负采样应每隔若干个epoch更新一次采样池避免过度拟合过时的困难样本。为防止过拟合困难负样本必须加强正则化。除L2正则外可增加dropoutrate0.1到0.3或采用更保守的学习率。如果验证集AUC提升但线上效果下降通常是过拟合困难负样本的信号应减少困难负样本比例或增强正则化。Pairwise方法的学习率通常需要小于Pointwise方法。这是因为Pairwise梯度来自样本对的差异相比单样本梯度更加不稳定过大的学习率容易导致训练震荡。第三部分Listwise损失函数——整体列表的全局优化Listwise方法将整个候选列表作为优化对象直接建模列表级别的排序质量。与Pairwise方法相比Listwise不局限于两两比较而是考虑所有候选物品之间的全局关系。在推荐系统中Listwise方法主要应用于召回阶段将问题建模为大规模多分类任务。InfoNCE Loss与对比学习InfoNCENoise Contrastive Estimation的一个变体是当前召回阶段最主流的Listwise方法。该方法将召回问题视为在所有候选物品中识别正样本的多分类任务通过对比学习框架训练用户和物品的向量表示。对于用户及其对应的正样本物品在一个包含个物品的批次中InfoNCE损失定义为其中为用户向量为正样本物品向量为相似度函数通常为内积或余弦相似度为温度参数。分母遍历批次内所有个物品其中包含1个正样本和个负样本。InfoNCE的核心机制是批内负采样In-Batch Negative Sampling。每个训练批次中用户的正样本为而批次内其他用户的正样本自动成为用户的负样本。这种设计极大提高了训练效率在批大小为1024的情况下每个样本实际上与1023个负样本进行了对比而无需额外采样。温度参数控制分布的锐度。越小分布越尖锐模型对相似度差异越敏感越大分布越平滑模型更宽容。典型取值范围为0.05到0.2需要根据具体任务调优。温度参数与批大小存在耦合关系批大小越大负样本越多通常需要更小的温度以维持训练稳定性。InfoNCE要求用户向量和物品向量的相似度计算为内积或余弦相似度。实践中强烈建议对向量进行L2归一化使用余弦相似度。归一化后所有向量位于单位超球面上避免了向量模长的影响使得相似度计算更加稳定同时与后续的ANN检索如FAISS的内积索引兼容性更好。Sampled Softmax LossSampled Softmax Loss是另一种近似全量多分类的Listwise方法。当候选物品数量达到百万甚至亿级时无法计算完整的softmax分母需要遍历所有物品。Sampled Softmax通过采样近似并对采样偏差进行校正。对于正样本和从噪声分布中采样的负样本集合Sampled Softmax损失定义为其中为模型对物品的原始打分logits为物品在噪声分布中的采样概率。减去的操作是关键它对采样过程引入的偏差进行校正使得该损失在数学上成为完整softmax损失的无偏估计。Sampled Softmax的采样分布通常设置为物品的流行度分布点击次数或曝光次数的归一化。流行度采样相比均匀采样能提供更多信息量热门物品作为负样本出现频率更高迫使模型学习更细粒度的区分能力。典型的采样负样本数量为数百到数千个。Sampled Softmax的理论性质优于简单的负采样方法如不带校正的负采样但实现复杂度也更高。需要维护物品的流行度统计计算采样概率并在损失计算中加入校正项。工程上需要确保采样过程的高效性避免成为训练瓶颈。Listwise方法的适用场景与优势Listwise方法专门为召回阶段设计适用于需要从大规模候选集中检索相关物品的场景。评估指标通常为RecallK、Hit RateK或MRRMean Reciprocal Rank。Listwise方法的核心优势在于学习高质量的向量表示。通过对比学习或多分类框架模型被迫在向量空间中将正样本拉近负样本推远形成良好的聚类结构。这种向量表示支持高效的ANN检索可以在毫秒级延迟内从百万候选中检索Top-K。相比Pointwise和Pairwise方法Listwise方法能够同时利用多个负样本的信息。在InfoNCE中一个批次的个负样本共同参与梯度计算提供了更丰富的对比信号。这使得Listwise方法在相同训练步数下学习效率显著高于仅使用少量负样本的Pairwise方法。Listwise方法的工程实践InfoNCE应作为召回阶段的首选方法。关键配置参数包括批大小应尽可能大推荐1024以上。如果GPU显存受限可以使用梯度累积技术在多个小批次上累积梯度后再更新参数模拟大批次效果。如果单卡无法支撑大批次训练可以采用Memory Bank或MoCoMomentum Contrast机制。Memory Bank维护一个缓存队列存储历史批次的物品向量当前批次可以使用队列中的向量作为额外的负样本。MoCo进一步引入动量编码器使得队列中的向量表示保持一定的一致性。这些技术可以在有限显存下实现数千甚至数万负样本的对比学习。温度参数的调优至关重要。推荐的调优策略是从0.1开始观察训练曲线。如果损失下降过快且验证集指标不佳说明温度过小模型过度关注困难样本如果损失下降缓慢说明温度过大可以适当减小。典型的最优温度在0.05到0.1之间。向量必须进行L2归一化。归一化后使用内积计算相似度等价于余弦相似度。这不仅稳定训练还与FAISS等ANN库的内积索引无缝对接简化部署流程。向量维度的选择需要平衡表达能力与检索效率128到512维是常见的折中选择。负采样策略应采用混合方式。批内负采样提供基础的多样性但可以额外加入流行度负采样按点击次数加权采样热门物品或困难负采样基于当前模型召回但未被点击的物品。混合比例可以设置为批内负采样占80%额外负采样占20%。困难负采样每隔5到10个epoch更新一次采样池。第四部分损失函数选型的决策框架损失函数的选择必须基于明确的优化目标与约束条件。以下决策框架按照实际工程场景提供具体的选型指导。场景一召回阶段的向量检索系统优化目标从百万至亿级候选集中检索出Top-K相关物品最大化RecallK或Hit RateK。约束条件检索延迟要求毫秒级必须支持ANN索引模型需要输出用户和物品的固定维度向量表示。推荐方案InfoNCE作为首选Sampled Softmax作为备选。具体配置使用批大小1024或更大的InfoNCE训练温度参数从0.07开始调优搜索范围0.05到0.15向量维度256或512对所有向量进行L2归一化后使用内积计算相似度。负采样采用批内负采样为主占80%混合流行度负采样占20%。如果显存受限使用梯度累积或Memory Bank技术扩大有效批大小。训练时每隔5个epoch在验证集上评估Recall100和Recall500选择验证集指标最优的模型。实施要点召回模型的训练目标与在线检索流程必须一致。如果训练时使用余弦相似度L2归一化内积部署时必须使用FAISS的内积索引且对向量归一化。温度参数和批大小存在强耦合必须联合调优。批大小翻倍时温度通常需要减小10%到20%以维持训练稳定性。场景二隐式反馈的排序优化优化目标在用户点击数据仅有正向交互记录上训练排序模型最大化AUC或NDCGK。约束条件无显式负样本标注需要通过采样构造训练样本对评估指标关注相对排序而非绝对概率。推荐方案BPR Loss作为首选。具体配置每个正样本配对3到5个负样本负样本采样采用混合策略70%随机30%困难负样本。学习率设置为L2正则化系数dropout rate为0.2。困难负样本每5个epoch重新采样选择模型当前打分前20%但实际未交互的物品。训练时监控验证集AUC和NDCG20如果验证集AUC上升但线上A/B测试效果下降说明过拟合困难负样本应减少困难负样本比例至10%或增强正则化。实施要点BPR Loss对负采样策略极度敏感。纯随机负采样虽然稳定但提升有限多为简单负样本困难负采样训练效率高但容易过拟合。实践中必须采用混合策略并通过A/B测试验证。困难负样本的更新频率也很关键更新过频导致训练不稳定更新过慢导致采样分布陈旧。每5到10个epoch更新一次是经验性的平衡点。场景三精排阶段的CTR预估优化目标预测用户点击概率输出需要校准良好用于后续的排序决策或业务指标计算如eCPM。约束条件正负样本严重不平衡点击率通常1%到5%需要输出可解释的概率值。推荐方案二元交叉熵BCE作为首选Focal Loss用于极度不平衡情况。具体配置如果正样本比例高于1%直接使用标准BCE。如果正样本比例低于1%使用Focal Loss聚焦参数平衡因子设置为负正比例如正负比1:99时。训练完成后在验证集上使用temperature scaling进行概率校准寻找最优温度系数使得的输出概率与真实点击率的期望校准误差ECE最小。最终部署模型时输出层的logits需要除以校准温度后再应用sigmoid。实施要点精排模型的概率校准至关重要。即使训练损失收敛良好输出的原始概率往往存在系统性偏差过高或过低。必须在与训练集分布一致的验证集上进行校准不能使用训练集会导致过拟合校准参数。校准后的模型应在线上持续监控预测CTR与真实CTR的一致性如果发现偏差需要重新校准或更新模型。场景四精排阶段同时优化概率与排序优化目标既需要准确的点击概率用于业务决策又需要良好的排序效果直接影响用户体验。约束条件单一损失函数难以同时优化概率校准和排序指标。推荐方案混合损失函数主损失使用BCE辅助损失使用Pairwise方法BPR或RankNet。具体配置总损失为权重系数从开始调优。Pairwise损失中每个正样本配对1到3个负样本相比纯Pairwise方法减少负样本数以控制计算量。负采样策略为在当前批次内选择预测概率高于正样本但实际未点击的物品作为负样本batch内困难负采样。权重系数的调优应基于验证集的综合指标同时监控AUC排序指标和Log Loss概率指标选择两者权衡最优的配置。实施要点混合损失的权重系数决定了模型在概率与排序之间的倾向。如果过大模型会牺牲概率的准确性追求排序效果输出的概率可能失去校准如果过小引入Pairwise损失的意义不大。推荐的调优策略是固定搜索在验证集上选择AUC提升最大且Log Loss增加可接受增幅小于5%的配置。混合损失的训练通常需要更多epoch才能收敛学习率可以适当减小相比纯BCE减小20%到30%。场景五冷启动与预训练场景优化目标在大规模未标注或弱标注数据上预训练通用表示再迁移到下游任务微调。约束条件预训练数据可能仅有曝光或共现信息无显式点击标签。推荐方案预训练阶段使用InfoNCE微调阶段使用任务相关损失召回用InfoNCE精排用BCE。具体配置预训练阶段以用户行为序列为正样本对例如同一session内的物品或连续点击的物品批内其他样本为负样本使用InfoNCE训练物品向量。预训练完成后固定物品向量或使用小学习率微调在有标注的下游任务上训练用户塔和输出层。如果下游任务是召回继续使用InfoNCE但增加下游任务特有的负样本如真实曝光未点击的物品如果下游任务是精排替换为BCE损失并添加预测层。预训练与微调的学习率比例通常为10:1预训练学习率微调学习率。实施要点预训练的目标是学习通用的物品表示应使用多样化的正样本对构造方式共现、序列、时序相邻等避免过度偏向某种特定模式。微调时必须防止灾难性遗忘固定预训练的embedding层或使用极小的学习率仅更新任务相关的上层参数。预训练模型的质量可以通过物品向量的最近邻检索评估手工选择若干测试物品检索其Top-K最近邻判断语义相关性。场景六多目标优化优化目标同时优化多个业务指标如CTR和CVR或在召回和精排阶段联合训练。约束条件不同目标可能存在冲突例如高CTR低CVR的物品需要平衡。推荐方案多任务学习框架每个任务使用独立的损失函数通过权重系数或动态平衡策略聚合。具体配置总损失为其中使用BCE使用BCE。两个任务共享底层embedding和特征提取网络分别使用独立的输出层tower结构。权重系数可以设置为静态如1:1或根据样本量倒数加权或使用不确定性加权等动态方法。训练时交替采样CTR和CVR样本或在每个batch内混合两种样本。验证时分别评估两个任务的指标CTR的AUCCVR的AUC以及组合指标如eCPM pCTR × pCVR × bid。实施要点多任务学习的核心挑战是任务间的干扰与平衡。如果某个任务的损失值远大于另一个任务例如CVR的正样本更稀疏导致loss更大梯度会被主导任务支配次要任务学习不充分。必须对损失值进行归一化或使用自适应权重方法如uncertainty weighting。另一个常见问题是负迁移共享表示反而降低了某个任务的性能。可以通过逐步增加共享层的深度或使用MMoEMulti-gate Mixture-of-Experts等架构缓解。第五部分混合策略与高级技术在实际工程中单一损失函数往往无法满足复杂的业务需求。以下混合策略在工业界已被验证有效。预训练与微调的Pipeline策略召回和精排两个阶段的优化目标存在本质差异召回关注向量空间的区分性精排关注概率的准确性。直接在精排数据上训练召回模型或反之都会导致次优结果。更有效的策略是分阶段训练使用InfoNCE在大规模召回数据上预训练学习高质量的向量表示然后在精排数据上使用BCE微调校准概率输出。这一策略的核心逻辑是预训练阶段利用海量的弱标注数据曝光-点击对学习物品的语义表示微调阶段利用小规模的强标注数据精准的点击标签学习用户偏好的细粒度模式。预训练提供了良好的初始化避免了从随机初始化开始的不稳定性和数据需求。具体实施时预训练阶段使用批大小2048的InfoNCE温度0.07训练100个epoch直到召回指标饱和。微调阶段固定物品embedding层或使用的极小学习率仅训练用户塔和输出层使用BCE损失学习率训练20到30个epoch。这一方案在多个工业场景中被证明相比端到端训练提升3%到5%的线上CTR。知识蒸馏的跨阶段迁移精排模型通常使用复杂特征和深层网络具有更强的拟合能力但无法部署在召回阶段计算量过大。知识蒸馏可以将精排模型的知识迁移到召回模型提升召回阶段的排序能力。蒸馏的实施方式是使用已训练好的精排模型教师对召回候选进行打分得到软标签soft label。召回模型学生不仅学习原始的硬标签点击/未点击还学习拟合教师模型的输出分布。损失函数为硬标签的交叉熵与软标签的KL散度的加权和其中为标准BCE为教师分布与学生分布之间的KL散度为平衡系数通常取0.5到0.7。蒸馏的关键在于教师模型的质量和蒸馏温度的设置。教师模型应在精排阶段达到最优性能后再用于蒸馏。蒸馏温度将logits除以后再softmax控制软标签的平滑程度到是常见选择。温度过高会使软标签过于平滑损失信息温度过低退化为硬标签蒸馏失去意义。课程学习与负样本采样的渐进式训练困难负样本能够显著提升模型的区分能力但如果训练初期就使用大量困难负样本模型容易陷入局部最优或过拟合噪声。课程学习Curriculum Learning提供了渐进式的解决方案训练初期使用简单负样本随机采样中期逐步引入困难负样本后期以困难负样本为主。具体实施策略为定义困难负样本为模型当前打分Top-K但实际未交互的物品。前30%训练步数使用100%随机负样本中间40%训练步数线性增加困难负样本比例从0到50%最后30%训练步数固定50%困难负样本50%随机负样本。困难负样本池每5个epoch更新一次。这一策略的理论基础是训练初期模型判别能力弱随机负样本已经提供足够的学习信号训练中后期模型已学会基本的区分模式需要困
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

站长 网站对比免费建立个人视频网站

LobeChat生日贺卡文字生成器:基于现代Web框架的AI聊天界面技术解析 在智能应用日益渗透日常生活的今天,一句“生日快乐”早已不再满足于简单的复制粘贴。人们期待更个性化、更有温度的表达方式——比如一段融合了对方星座、喜好甚至当天天气的祝福语。如…

张小明 2026/1/1 1:29:11 网站建设

网站备案与icp备案网络有限公司

随着各个学校要求论文的AIGC检测值在30%以内,哪个降AI率工具好用成为很多师生的关注焦点。据2025年降AI率工具行业统计报告显示,已有超过200个各类去除AIGC痕迹和降低AI重复率的软件。选择合适的降AIGC率工具,关系着文章能够顺利通过AIGC检测…

张小明 2025/12/31 20:57:42 网站建设

北京地铁建设的网站关于网站建设的标语

如何用jynew剧情编辑工具实现可视化设计:零基础快速上手指南 【免费下载链接】jynew 这个项目是一个开源的游戏服务器端框架,主要面向开发多人在线角色扮演游戏(MMORPG)。适合游戏开发者用来构建游戏后端逻辑和服务。其特点可能包…

张小明 2025/12/31 17:26:28 网站建设

网站升级改版方案建设协会网站的公司

2092: 找出知晓秘密的所有专家思路:排序bfs广度优先搜索假设一开始 0 和 1 知道秘密。对比如下两种情况:时间 1,1 和 2 开会。时间 2,2 和 3 开会。秘密会传播给 2 和 3,最终 0,1,2,3 都知道秘密。时间 1,2…

张小明 2026/1/1 2:11:35 网站建设

旅游网站设计如何做楼盘网站

想要在文本生成领域快速上手?TextBox就是你需要的终极工具!这个由南京大学AI学院精心打造的开源平台,集成了业界最前沿的自然语言处理技术,让你轻松驾驭从BERT到GPT-2、T5等顶级模型。 【免费下载链接】TextBox TextBox 2.0 is a …

张小明 2025/12/27 1:32:56 网站建设

外包公司做网站多少钱如何根据网址攻击网站

浏览器书签栏收藏一个地址,然后修改为如下的JavaScript脚本javascript:$(#username).val(admin);$(#value).val(Test123);$(#submitDataverify).click();即可实现,系统需要输入账号和密码时,输入的即是上方脚本里的:admin、Test12…

张小明 2025/12/22 6:18:59 网站建设