大语言模型相关工作有哪些

时间: 2023-09-08 15:08:03 浏览: 29
大语言模型是自然语言处理领域的一个热门研究方向。以下是目前大语言模型的一些相关工作: 1. GPT系列:GPT(Generative Pre-trained Transformer)是OpenAI公司开发的一系列基于Transformer的大型语言模型,包括GPT、GPT-2和GPT-3等。这些模型在自然语言生成、文本分类、问答系统等任务上都取得了很好的效果。 2. BERT:BERT(Bidirectional Encoder Representations from Transformers)是Google开发的一种预训练的大型语言模型,它在自然语言处理领域取得了很好的效果,被广泛应用于文本分类、问答系统、语义相似度等任务上。 3. XLNet:XLNet是CMU和Google Brain联合开发的一种预训练的大型语言模型,它采用了自回归和自编码两种方式来预训练模型,可以更好地处理长文本序列和多种关系。 4. RoBERTa:RoBERTa(Robustly Optimized BERT Pretraining Approach)是Facebook开发的一种基于BERT的预训练语言模型,通过对BERT的改进和优化,取得了更好的效果。 5. T5:T5(Text-to-Text Transfer Transformer)是Google开发的一种基于Transformer的模型,可以将各种自然语言处理任务转化为文本到文本的转换任务,可用于机器翻译、文本摘要、问答系统等任务。 6. UniLM:UniLM是微软开发的一种基于Transformer的预训练语言模型,可以同时适应多种自然语言处理任务,如文本生成、文本分类、语言推理等。 以上是目前大语言模型的一些相关工作,这些模型的出现和发展,极大地推动了自然语言处理领域的发展,并在多个自然语言处理任务中取得了令人瞩目的成果。

相关推荐

要训练自己的大型语言模型,你需要掌握以下几个方面的知识: 1. 自然语言处理(NLP):了解自然语言处理的基本概念和技术,包括分词、词性标注、句法分析、情感分析等。这些知识将帮助你理解语言模型的工作原理。 2. 机器学习和深度学习:掌握机器学习和深度学习的基本原理和算法,如神经网络、循环神经网络(RNN)、长短期记忆网络(LSTM)等。这些算法是训练语言模型的核心。 3. 数据处理和特征工程:了解如何处理和清洗原始数据,包括文本预处理、数据标注和特征提取。这些步骤对于训练高质量的语言模型至关重要。 4. 计算资源和分布式计算:大型语言模型的训练通常需要大量的计算资源和存储空间。了解如何有效地利用分布式计算系统,如GPU集群或云计算平台,可以提高训练效率。 5. 训练技巧和调优策略:掌握一些训练技巧和调优策略,如学习率调整、正则化、批量归一化等。这些技巧可以帮助你更好地训练和优化语言模型。 6. 评估和调试:了解如何评估和调试训练好的语言模型,包括使用各种评估指标和可视化工具进行分析和改进。 除了以上的知识,还需要有编程和数学基础,熟悉常用的深度学习框架(如TensorFlow、PyTorch)以及相关的工具和库。同时,对于大规模数据的处理和存储也需要有一定的了解。
### 回答1: 学习人工智能可以找以下类型的工作: 1. 数据分析师:负责处理和分析大量的数据,以及运用机器学习和深度学习技术进行预测和决策。 2. 机器学习工程师:负责设计、开发和实现机器学习模型,以及进行模型调优和性能优化。 3. 自然语言处理工程师:负责设计和开发能够理解和处理自然语言的算法和应用,如语音识别、机器翻译等。 4. 机器视觉工程师:负责设计和开发能够识别和分析图像和视频的算法和应用,如人脸识别、目标检测等。 5. 智能系统工程师:负责设计和开发智能系统,如智能客服、智能家居等。 总之,人工智能是一个新兴的领域,未来将会有越来越多的相关工作岗位出现,对于有相关专业背景和技能的人来说,机会非常多。 ### 回答2: 学习人工智能可以为求职者带来广阔的职业机会。在人工智能领域,各个行业都需要人工智能专业人才来应对日益复杂的数据分析和决策需求。以下是一些学习人工智能可以找到的工作领域和职位: 1. 数据科学家:数据科学家利用机器学习和深度学习等人工智能技术来挖掘数据中的价值,并为企业提供数据驱动的决策支持。 2. 机器学习工程师:机器学习工程师负责开发和优化机器学习模型,使其能够准确地预测和决策。 3. 自然语言处理工程师:自然语言处理工程师开发和改进自然语言处理算法,用于文本和语音的语义理解、情感分析等应用。 4. 计算机视觉工程师:计算机视觉工程师研究和开发图像和视频处理算法,使计算机能够“看懂”和理解图像和视频。 5. 机器人工程师:机器人工程师设计和开发具有人工智能能力的机器人,使其能够感知环境、做出决策和执行任务。 6. 数据工程师:数据工程师负责搭建和维护大规模数据处理系统,收集、存储和清洗大量的结构化和非结构化数据。 7. 增强学习工程师:增强学习工程师研究和开发能够通过与环境交互学习的智能系统,使其能够在未知环境中做出最优决策。 8. AI产品经理:AI产品经理负责根据市场需求和用户反馈,规划和设计人工智能产品,并协调开发团队将其落地。 学习人工智能不仅可以在科技公司和研究机构中找到工作,也可以在医疗、金融、制造、教育、交通等各个行业中应用。因此,学习人工智能将会为求职者打开许多职业发展的机会。 ### 回答3: 学习人工智能可以为我们打开广泛的就业机会。以下是一些可以找到的与人工智能相关的工作。 首先,我们可以在技术行业中寻找工作,如软件开发和数据分析。人工智能技术在这些领域中扮演着重要的角色,因此有很多与人工智能相关的职位,如机器学习工程师、算法工程师和数据科学家。 其次,人工智能在医疗保健领域也有广泛的应用。因此,人工智能医疗顾问、模拟人工智能医生和健康数据分析师等工作也是值得考虑的选择。 此外,在金融和银行业,人工智能技术被广泛应用于风控、投资和自动化交易等方面。因此,人工智能金融分析师和金融科技专家也是人工智能领域可追求的职业。 同时,人工智能对于智能制造和物联网的发展也具有重要影响,因此在制造业和物联网领域也存在很多与人工智能相关的工作机会,如智能制造工程师和物联网系统工程师。 最后,在教育和研究领域也存在与人工智能相关的工作机会。人工智能教育家、研究员和教授都可以将人工智能的知识传授给其他人,并推动人工智能领域的发展。 总之,学习人工智能可以为我们提供各种各样的就业机会,涵盖了多个不同领域。随着人工智能技术的不断发展和应用,人工智能相关的工作领域也将不断扩大。
### 回答1: ChatGPT 和其他的自然语言处理技术可能会取代一些简单的文本处理工作,例如数据录入、信息提取和简单的客服机器人。然而,它不太可能取代需要专业知识和判断力的工作,例如医生、律师和金融分析师等。总体而言,ChatGPT 可以与人类合作,帮助人们更有效地完成一些工作,而不是完全取代人类。 ### 回答2: ChatGPT是一个基于人工智能的文本生成模型,它具有广泛的应用前景,可以替代一些重复性高、繁琐且需要大量人力的工作。以下是我认为ChatGPT可能取代的一些工作: 1. 客服人员:ChatGPT可以通过与客户进行实时对话,提供基本的产品或服务信息,解答一些常见问题,甚至处理一些简单的问题、问题。这可以大大减少人工客服的人力需求,提高工作效率。 2. 电话销售人员:ChatGPT可以代替人工操作,向潜在客户提供产品或服务的信息,回答一些常见问题,并处理销售流程中的一些标准操作。这将减少人力成本,提高销售效率。 3. 接待员:ChatGPT可以作为一个虚拟接待员,回答来访者的常见问题,提供所需的信息,给予适当的引导。这将减少接待员的工作量,提供更快捷和准确的服务。 4. 一部分编辑工作:ChatGPT可以在写作领域提供一些基础的编辑工作。例如,检查拼写和语法错误,提供一些重新表达或改进的建议。虽然它可能无法取代高级编辑的角色,但对于一些简单的文字编辑工作,可以提供辅助。 5. 简单的翻译工作:ChatGPT拥有语言理解和生成的能力,可以对一些简单的文本进行翻译工作。虽然在专业性和复杂性方面可能有限,但对于日常生活中的简单交流场景,可以提供一定的帮助。 值得注意的是,虽然ChatGPT具有很大的潜力替代某些工作,但它与人类智能相比仍存在一定的局限性。对于复杂、具有判断和创造性的任务,仍需要人类的参与和决策能力。因此,ChatGPT更应该被视为辅助工具,而不是完全取代人类的工作。 ### 回答3: 我认为ChatGPT可能会取代一些简单重复性高的工作,如客服、在线聊天机器人等。ChatGPT在自然语言处理方面表现出色,可以通过理解用户的问题和回答提供相关信息和解决方案。因此,它可以在很大程度上替代一些需要进行简单交流和提供基本信息的工作岗位。 ChatGPT的应用领域也可能扩展到其他领域,如智能助手、语言翻译、自动办公等。这些工作可以通过ChatGPT自动化、智能化地完成。例如,智能助手可以利用ChatGPT的能力为用户提供精准的答案、提供个性化服务。语言翻译也可以通过ChatGPT的实时翻译来提供更准确和便捷的翻译服务。自动办公方面,ChatGPT可以协助进行简单的文件处理、查找数据或提供办公流程上的建议等。 然而,ChatGPT并非完美无缺,还有很多挑战需要克服。它在理解复杂问题、推理和逻辑方面还有待提高。同时,出于隐私和安全等方面的考虑,像ChatGPT这样的技术需要进行适当的监管和管理。 总的来说,ChatGPT有潜力在一些简单重复性的工作领域取代人力,提高工作效率和用户体验。但在更复杂的任务和涉及敏感信息的场景中,人类的专业知识和技能仍然不可替代。
### 回答1: 作为一个AI语言模型,我可以回答你的问题。Prometheus是一个开源的监控系统,用于记录和查询大型分布式系统的时间序列数据。以下是Prometheus面试中可能涉及的一些主题: 1. Prometheus基础知识:Prometheus的工作原理、数据模型、查询语言等。 2. 监控指标(metric):Prometheus中的指标,如何选择指标以及如何使用指标。 3. PromQL:Prometheus查询语言,包括选择、聚合和过滤时间序列数据的方法。 4. 报警(alerting):如何设置和使用Prometheus的报警规则,以及如何处理报警通知。 5. 指标采集器(metric collectors):如何编写和使用Prometheus的指标采集器,以便监控各种应用程序和系统。 6. 存储和可视化:如何存储Prometheus的数据以及如何使用Grafana等工具进行可视化。 希望这些信息可以帮助你更好地准备Prometheus面试。 ### 回答2: Prometheus是一个开源的监控和告警工具,面试时可以涉及以下几个关键点: 1. Prometheus的架构:面试官可能会询问Prometheus的组件,如Prometheus服务器、exporter、推送网关等,以及它们之间的工作原理和通信方式。 2. 数据收集和存储:面试官可能会问到Prometheus如何采集被监测对象的指标数据,以及如何存储和处理这些数据。你可以讨论Prometheus的Pull模型、指标数据格式、时间序列数据库等相关内容。 3. 监控指标和告警规则:面试官可能会询问如何定义和配置Prometheus的监控指标和告警规则,以及如何通过查询语言PromQL来查询和分析指标数据。你可以介绍Prometheus提供的查询函数、操作符,以及如何创建自定义指标和告警规则。 4. 可视化和报表:面试官可能会关注Prometheus的可视化和报表功能,如如何使用Grafana搭配Prometheus进行仪表盘展示和报表生成。 5. 高可用和扩展性:面试官可能会询问Prometheus的高可用性和扩展性,例如如何设置Prometheus高可用集群,如何水平扩展Prometheus服务器等。 6. 监控业务应用和系统:面试官可能会问到如何使用Prometheus监控具体的业务应用和系统,例如如何采集Java应用程序的JVM指标、如何监控Kubernetes集群等。你可以分享相关的exporter、instrumentation库以及现有的最佳实践。 7. 社区支持和生态系统:面试官可能会关注Prometheus的社区支持和生态系统,如它有哪些相关的开源项目、有哪些主要用户,以及如何参与和贡献给Prometheus社区。 针对这些面试点,你可以准备一些相关的概念和实际应用经验,展示你对Prometheus监控工具的理解和实践能力。 ### 回答3: Prometheus是一款开源的监控和报警系统,用于收集和记录系统和应用程序的指标数据。在面试过程中,以下是一些可能涉及到的Prometheus的面试点: 1. Prometheus的基础概念:面试官可能会问到Prometheus的核心概念,例如指标(metric)、标签(label)和时间序列(time series)等。回答时需要清晰地解释这些概念与Prometheus的工作原理之间的关系。 2. 监控数据收集:面试官可能会问到如何通过Prometheus来收集监控数据,回答时可以提到Prometheus通过HTTP协议主动拉取(target scraping)和服务发现(service discovery)两种方式来获取指标数据,并且可以配合其他工具实现自动化的监控数据收集。 3. Prometheus的查询语言(PromQL):面试官可能会问到PromQL的语法和使用方法。回答时可以说明PromQL用于查询和分析已收集的指标数据,可以进行聚合(aggregation)、筛选(filtering)和计算计算等操作。 4. 报警规则和警报通知:面试官可能会问到如何在Prometheus中设置报警规则,并如何配置警报通知。回答时可以提到Prometheus的报警规则语法和配置文件,以及警报通知方式(如发送邮件、短信或其他集成工具)等。 5. 高可用性和容错性:面试官可能会问到如何保证Prometheus监控系统的高可用性和容错性。回答时可以说明Prometheus支持多副本集群部署、数据备份和恢复、自动发现故障、水平扩展等特性来保证系统可靠性。 6. 可视化和监控仪表盘:面试官可能会问到如何使用Prometheus来创建和展示监控数据的可视化仪表盘。回答时可以说明Prometheus提供了自带的Web界面(Graphana)和API接口,也可以通过其他工具和库来创建和自定义监控仪表盘。 总之,在面试过程中,理解和掌握Prometheus的核心概念、数据收集、查询语言、报警设置、高可用性以及监控仪表盘等方面的知识是非常重要的。
### 回答1: W模型是一种生成模型,它通过输入一个隐藏状态,来生成一段文本。W模型可以用来生成自然语言文本,例如诗歌、小说、新闻等。 V模型是一种生成模型,它通过输入一个图像或视频,来生成一段文本,用来描述这个图像或视频中的内容。 H模型是一种生成模型,它通过输入一个图像或视频,来生成一段文本,用来描述这个图像或视频中的动作。 X模型是一种生成模型,它通过输入一个图像或视频,来生成一段文本,用来描述这个图像或视频中的内容和动作。 W模型的优点是它可以生成自然语言文本,能够比较精确地描述内容。缺点是它不能生成图像或视频。 V模型的优点是它可以生成有关图像或视频内容的文本,能够较准确地描述图像或视频的内容。缺点是它不能生成自然语言文本。 H模型的优点是它可以生成有关图像或视频动作的文本,能够较准确地描述图像或视频中的动作。缺点是它不能 ### 回答2: W模型和V模型是软件开发过程中常用的两种模型。W模型是一种串行开发模型,它将软件开发过程划分为需求分析、系统设计、详细设计、编码、单元测试、集成测试、验收测试等阶段。而V模型是一种并行开发模型,它与W模型结构相似,但在每个开发阶段的同时进行相应的测试。 W模型的优点是开发过程可控性强,每个阶段都有明确的输入和输出,便于跟踪和管理。同时,将所有测试工作放在最后阶段,能够全面测试整个系统功能。然而,W模型的缺点是开发周期较长,开发进度无法快速反馈并进行调整。同时,由于测试工作放在最后,可能导致问题发现得较晚,难以及时解决。 V模型相比之下更强调测试,每个开发阶段都有相应的测试阶段与之对应,保证了质量的控制。与W模型相比,V模型开发周期较短,有利于及时调整开发进度和需求。然而,V模型的缺点是在需求阶段的不完备会导致后续阶段的问题,因此需求分析的准确性非常关键。同时,由于多个测试阶段的存在,需要投入大量的测试资源,增加了项目的成本。 H模型是对W模型的一种改进,它主要强调并行开发和测试。与V模型相似,每个开发阶段都有相应的测试阶段与之对应,但测试与开发可以同时进行,加快了整个开发过程。X模型则是继承了H模型的特点,并进一步强调了快速迭代和持续交付的特点。因此,H模型和X模型的优点包括了较快的开发周期、高质量的系统与及时的需求变更响应能力。然而,相对于W模型而言,这两种模型也需要更高的测试资源和投入。 综上所述,每个模型都有其优缺点,选择适合具体项目需求和团队能力的模型是非常重要的。 ### 回答3: W模型和V模型、H模型和X模型是软件开发过程中常用的方法论和流程模型,它们各自有着不同的优点和缺点。 W模型是一种融合了瀑布模型和迭代模型的流程模型。它的优点在于清晰明确的阶段划分,每个阶段的输出都可以作为下一阶段的输入,便于项目管理和控制。此外,W模型对每个阶段都进行详细的规划和测试,能够及早发现和纠正问题,提高软件质量。但是,W模型的缺点在于较高的成本和时间消耗,对需求的变更较为困难,不够灵活和适应快速变化的需求。 V模型是一种以验证和验证为核心的软件开发流程模型。它的优点在于明确的验证流程和规范化的测试活动,能够及时发现和修复缺陷。与W模型相比,V模型更加注重测试活动,测试覆盖全面,可以提高软件质量。然而,V模型同样存在成本高、时间长的问题,对需求变更的适应性也不如敏捷方法。 H模型是一种融合了瀑布模型和敏捷方法的流程模型,将开发过程分为多个阶段,每个阶段都包含设计、开发和测试三个活动,并通过迭代的方式不断优化和改进。H模型的优点在于能够兼顾瀑布模型和敏捷方法的优点,具有较高的适应性和灵活性,能够更好地满足变化的需求。然而,H模型在实施过程中需要明确的规划和管理,需要团队成员具备较高的技术能力和沟通协作能力。 X模型是一种融合了多种流程模型和方法论的综合性开发过程模型,可以根据项目的具体情况选择最合适的开发方法。X模型的优点在于灵活性和实用性,可以根据实际需要进行定制,最大程度地满足项目需求。然而,X模型的缺点在于复杂性较高,对项目经理和团队成员能力要求较高。 综上所述,每种模型都有其适用的场景和局限性,选择合适的模型需要根据项目的需求、时间和资源等因素进行综合考虑。
### 回答1: ar8031 是一种用于以太网通信的芯片,它包含了物理层和以太网接口电路。仿真模型是为了模拟该芯片的功能和性能而开发的一种工具。 ar8031 的仿真模型主要用于对该芯片进行功能验证和性能评估。通过仿真模型,可以模拟芯片在不同工作条件下的行为,以及与其他组件或设备的交互。仿真模型通常由硬件描述语言(如Verilog或VHDL)编写,通过仿真器运行模拟。 使用 ar8031 仿真模型可以帮助工程师在设计阶段发现和解决潜在问题,提高产品开发效率。通过对模型的仿真和调试,工程师可以验证芯片的各项功能是否符合设计要求,比如通信速率、数据传输准确性等,并进行必要的优化和调整。 除了功能验证,仿真模型还可以评估芯片在不同工作环境下的性能。通过模拟各种工作条件和应用场景,如不同温度、电压和噪声水平等,可以评估芯片的稳定性和可靠性,并进行相关的优化和改进。 总之,ar8031 的仿真模型是一种用于模拟该芯片的功能和性能的工具,可以帮助工程师验证和优化设计,提高产品开发效率和质量。 ### 回答2: ar8031是一种高性能以太网物理层芯片,广泛用于计算机网络和通信设备中。ar8031的仿真模型是一种数学模型,用于模拟和分析ar8031在不同工作条件下的性能和行为。 ar8031的仿真模型基于该芯片的内部结构和工作原理,利用电路设计软件对其进行建模。通过对模型参数的设定和输入信号的模拟,可以模拟出ar8031在不同工作条件下的电气特性和传输性能。仿真模型可以模拟芯片的输出电压、电流、噪声等,以及其对输入信号的处理和传输过程。 通过仿真模型,可以在计算机上进行虚拟实验,评估ar8031在不同工作环境下的性能指标,如传输速率、误码率、电源噪声等。这样可以提前发现并解决潜在的问题,节约了产品开发的时间和成本。 同时,仿真模型还可以用于系统级的性能评估和优化。通过在整个系统级进行仿真,可以评估ar8031与其他设备的互操作性,优化系统的稳定性和传输效率。 综上所述,ar8031的仿真模型是基于该芯片的内部结构和工作原理,利用电路设计软件建立的数学模型。通过仿真模型,可以预测和评估ar8031在不同工作条件下的性能和行为,以指导芯片的开发和系统的优化。

最新推荐

市建设规划局gis基础地理信息系统可行性研究报告.doc

市建设规划局gis基础地理信息系统可行性研究报告.doc

"REGISTOR:SSD内部非结构化数据处理平台"

REGISTOR:SSD存储裴舒怡,杨静,杨青,罗德岛大学,深圳市大普微电子有限公司。公司本文介绍了一个用于在存储器内部进行规则表达的平台REGISTOR。Registor的主要思想是在存储大型数据集的存储中加速正则表达式(regex)搜索,消除I/O瓶颈问题。在闪存SSD内部设计并增强了一个用于regex搜索的特殊硬件引擎,该引擎在从NAND闪存到主机的数据传输期间动态处理数据为了使regex搜索的速度与现代SSD的内部总线速度相匹配,在Registor硬件中设计了一种深度流水线结构,该结构由文件语义提取器、匹配候选查找器、regex匹配单元(REMU)和结果组织器组成。此外,流水线的每个阶段使得可能使用最大等位性。为了使Registor易于被高级应用程序使用,我们在Linux中开发了一组API和库,允许Registor通过有效地将单独的数据块重组为文件来处理SSD中的文件Registor的工作原

要将Preference控件设置为不可用并变灰java完整代码

以下是将Preference控件设置为不可用并变灰的Java完整代码示例: ```java Preference preference = findPreference("preference_key"); // 获取Preference对象 preference.setEnabled(false); // 设置为不可用 preference.setSelectable(false); // 设置为不可选 preference.setSummary("已禁用"); // 设置摘要信息,提示用户该选项已被禁用 preference.setIcon(R.drawable.disabled_ico

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

基于改进蚁群算法的离散制造车间物料配送路径优化.pptx

海量3D模型的自适应传输

为了获得的目的图卢兹大学博士学位发布人:图卢兹国立理工学院(图卢兹INP)学科或专业:计算机与电信提交人和支持人:M. 托马斯·福吉奥尼2019年11月29日星期五标题:海量3D模型的自适应传输博士学校:图卢兹数学、计算机科学、电信(MITT)研究单位:图卢兹计算机科学研究所(IRIT)论文主任:M. 文森特·查维拉特M.阿克塞尔·卡里尔报告员:M. GWendal Simon,大西洋IMTSIDONIE CHRISTOPHE女士,国家地理研究所评审团成员:M. MAARTEN WIJNANTS,哈塞尔大学,校长M. AXEL CARLIER,图卢兹INP,成员M. GILLES GESQUIERE,里昂第二大学,成员Géraldine Morin女士,图卢兹INP,成员M. VINCENT CHARVILLAT,图卢兹INP,成员M. Wei Tsang Ooi,新加坡国立大学,研究员基于HTTP的动态自适应3D流媒体2019年11月29日星期五,图卢兹INP授予图卢兹大学博士学位,由ThomasForgione发表并答辩Gilles Gesquière�

PostgreSQL 中图层相交的端点数

在 PostgreSQL 中,可以使用 PostGIS 扩展来进行空间数据处理。如果要计算两个图层相交的端点数,可以使用 ST_Intersection 函数来计算交集,然后使用 ST_NumPoints 函数来计算交集中的点数。 以下是一个示例查询,演示如何计算两个图层相交的端点数: ``` SELECT ST_NumPoints(ST_Intersection(layer1.geometry, layer2.geometry)) AS intersection_points FROM layer1, layer2 WHERE ST_Intersects(layer1.geometry,

漕河渡槽Ⅳ标段_工程施工土建监理资料建筑监理工作规划方案报告.doc

漕河渡槽Ⅳ标段_工程施工土建监理资料建筑监理工作规划方案报告.doc

HAL多学科开放获取档案库的作用及代理重加密和认证委托的研究

0HAL编号:tel-038172580https://theses.hal.science/tel-038172580提交日期:2022年10月17日0HAL是一个多学科开放获取档案库,用于存储和传播科学研究文档,无论其是否发表。这些文档可以来自法国或国外的教育和研究机构,也可以来自公共或私人研究中心。0HAL多学科开放获取档案库旨在存储和传播法国或国外的教育和研究机构、公共或私人实验室发表或未发表的研究文档。0代理重加密和认证委托的贡献0Anass Sbai0引用此版本:0Anass Sbai. 代理重加密和认证委托的贡献. 离散数学[cs.DM]. 皮卡第朱尔大学, 2021. 法语. �NNT:2021AMIE0032�. �tel-03817258�0博士学位论文0专业“计算机科学”0提交给科技与健康学院博士学位学校0皮卡第朱尔大学0由0Anass SBAI0获得皮卡第朱尔大学博士学位0代理重加密和认证委托的贡献0于2021年7月5日,在评审人的意见后,面向考试委员会进行

编写一个函数,将double数组转换成一个三列显示的二维数组(用grouped方法实现传入列数作为参数)

以下是一个基于Python实现的函数,可将长度为n的double数组转换为k列的二维数组,其中k为传入的列数。如果n不是k的倍数,则最后一行的元素数可能少于k列。 ```python import math def convert_to_2d(arr, k): n = len(arr) rows = math.ceil(n / k) result = [[0] * k for _ in range(rows)] for i in range(n): row = i // k col = i % k result

紫黑暗夜星空商务创业计划书29.pptx

紫黑暗夜星空商务创业计划书29.pptx