"从CHAT-GPT到生成式AI模型: 人工智能新范式的重定义"

需积分: 0 0 下载量 83 浏览量 更新于2024-01-27 收藏 6.13MB PDF 举报
本报告从CHAT-GPT到生成式AI(Generative AI)进行了较为详细的描述和分析。在2023年1月29日发布的这份研究报告中,中信建投证券股份有限公司提供了关于生成式AI模型的最新观点和见解。此次研究报告由分析师武超则和杨艾莉以及研究助理杨晓玮共同撰写,他们的工作单位分别为中信建投证券股份有限公司和中信建投(国际)证券有限公司。 报告中首先对近期OpenAI推出的聊天机器人模型CHAT-GPT进行了介绍,并指出该模型受到了广泛关注。根据Semafor援引的知情人士报道,微软正准备对OpenAI进行一笔巨额投资,预计投资金额约为100亿美元,公司估值达到290亿美元。这一动向表明,生成式AI模型成为了人工智能领域的一个新范式。 与此前的决策式AI模型不同,生成式AI模型是基于已有数据的生成模型,具有较高的自主性和创造性。它不仅可以分析和识别已有数据中的模式和规律,还可以根据这些规律生成全新的内容。这种模型的出现引发了广泛的讨论和关注,许多人看好生成式AI模型在各个领域的应用前景。 此外,报告还详细分析了生成式AI模型的优势和挑战。生成式AI模型可以应用于自然语言处理、图像生成、音乐创作等多个领域,并取得了一系列令人瞩目的成果。然而,生成式AI模型也存在一些问题,如模型的不稳定性、数据集的收集和隐私保护等方面存在挑战。报告指出,未来需要在技术、法律、伦理等方面进行更深入的研究和探讨。 最后,报告总结了生成式AI模型的市场前景和发展趋势。生成式AI模型在金融、娱乐、教育等领域都具有广阔的应用前景,并有望带来巨大的经济效益和社会效益。然而,与此同时,我们也需要认识到生成式AI模型带来的一些风险和挑战,包括数据隐私、人机协作等方面的问题。因此,需要在技术、监管和伦理等多个方面进行综合考虑和规划。 总而言之,这份研究报告对生成式AI模型进行了全面的介绍和分析,指出了该模型的优势、挑战以及市场前景。生成式AI模型作为人工智能领域的一个新范式,将为各行各业带来巨大的变革和机遇,但同时也需要我们认真面对其中的问题和困境,并积极探索解决之道。生成式AI模型的发展和应用有赖于广大研究人员、政府和企业的共同努力,希望能够为人类社会的进步和发展做出积极的贡献。

import random import logging logging.basicConfig(level=logging.INFO) import torch from pytorch_transformers import GPT2Tokenizer from pytorch_transformers import GPT2LMHeadModel # 选择 top-k 的函数的实现, def select_top_k(predictions, k=10): predicted_index = random.choice( predictions[0, -1, :].sort(descending=True)[1][:10]).item() return predicted_index # 载入预训练模型的分词器 tokenizer = GPT2Tokenizer.from_pretrained('gpt2') # 使用 GPT2Tokenizer 对输入进行编码 text = "Yesterday, a man named Jack said he saw an alien," indexed_tokens = tokenizer.encode(text) tokens_tensor = torch.tensor([indexed_tokens]) # 读取 GPT-2 预训练模型 model = GPT2LMHeadModel.from_pretrained("gpt2") model.eval() total_predicted_text = text n = 100 # 预测过程的循环次数 for _ in range(n): with torch.no_grad():#使用 torch.no_grad() 上下文管理器来关闭梯度计算,因为这个循环只是用于生成文本,不需要进行模型的参数更新 outputs = model(tokens_tensor)#调用 GPT-2 模型,将 tokens_tensor 输入到模型中,并获得模型的输出 outputs predictions = outputs[0] predicted_index = select_top_k(predictions, k=10)#调用函数,从预测结果中选择概率最高的前 10 个元素之一作为下一个词的索引 predicted_index predicted_text = tokenizer.decode(indexed_tokens + [predicted_index])#使用 tokenizer.decode() 将索引转换为文本,将其添加到 total_predicted_text 中 total_predicted_text += tokenizer.decode(predicted_index) if '<|endoftext|>' in total_predicted_text: # 如果出现文本结束标志,就结束文本生成 break indexed_tokens += [predicted_index] tokens_tensor = torch.tensor([indexed_tokens]) print(total_predicted_text)优化这段代码,使输出文本为新闻

2023-06-07 上传
IT徐师兄
  • 粉丝: 2482
  • 资源: 2862
上传资源 快速赚钱