一次性发送多个字节:BLE协议配置与GATT优化

需积分: 0 0 下载量 131 浏览量 更新于2024-08-04 收藏 1001KB DOCX 举报
"该FAQ主要讨论如何在应用层一次发送多个字节,涉及BLE协议的配置,特别是GATT数据库大小和MTU值的调整。" 在蓝牙低功耗(BLE,Bluetooth Low Energy)通信中,有时需要一次性传输大量数据,比如发送200多个字节。这种情况下,可以通过以下两种方法进行配置优化: 方法一:调整BLE协议栈配置 - 添加透传服务:创建一个服务,包含两个特征,一个用于接收数据,另一个用于发送数据。每个特征的值长度设置为247个字节,以便能容纳更多数据。 - 使用BLUENRG1_Wizard.exe工具配置`user_config.h`:选择合适的协议栈版本,并配置Radio configuration,将最大属性值设为247,最大属性MTU(Maximum Transmission Unit)设为251。这将允许一次传输更多的数据包。 - 配置Service configuration,添加透传服务并设定两个特征,其中一个特征启用通知功能(Notify feature),两个特征的值长度均设置为最大值247。 方法二:属性表(Attribute Table)和MTU交换 - 属性表是BLE设备存储GATT服务和特性的地方。理解其工作原理可以帮助优化数据传输效率。 - 连接成功后,调用`aci_gatt_exchange_config`函数来执行MTU交换,这会协商更大的数据包大小,从而允许一次性传输更多字节。 - MTU交换完成后,双方设备将能够使用协商后的最大传输单元进行数据交换,提高传输速率。 结合这两种方法,可以最大化数据传输效率,满足一次性发送多个字节的需求。同时,注意根据实际应用需求调整其他配置,如连接参数、安全设置等。 总结来说,要在应用层一次发送多个字节,关键在于正确配置BLE协议栈和适当调整GATT数据库大小及MTU值。这需要对BLE协议有深入理解,并使用相应的配置工具进行定制。通过这样的配置,不仅能提高数据传输的效率,还能确保应用程序能够流畅地处理大数据量的传输任务。

import ast from dataclasses import dataclass from typing import List import pandas as pd import json ["text", "六十一岁还能办什么保险"] @dataclass class FAQ: title: str sim_questions: List[str] answer: str faq_id: int ori_data = pd.read_csv('baoxianzhidao_filter.csv') data = [] exist_titles = set() for index, row in enumerate(ori_data.iterrows()): row_dict = row[1] title = row_dict['title'] if title not in exist_titles: data.append(FAQ(title=title, answer=row_dict['reply'], sim_questions=[title], faq_id=index)) exist_titles.add(title) from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks pipeline_ins = pipeline(Tasks.faq_question_answering, 'damo/nlp_mgimn_faq-question-answering_chinese-base') bsz = 32 all_sentence_vecs = [] batch = [] sentence_list = [faq.title for faq in data] for i,sent in enumerate(sentence_list): batch.append(sent) if len(batch) == bsz or (i == len(sentence_list)-1 and len(batch)>0): # if i == len(sentence_list)-1 and len(batch)>0: sentence_vecs = pipeline_ins.get_sentence_embedding(batch) all_sentence_vecs.extend(sentence_vecs) batch.clear() import faiss import numpy as np hidden_size = pipeline_ins.model.network.bert.config.hidden_size # hidden_size = pipeline_ins.model.bert.config.hidden_size index = faiss.IndexFlatIP(hidden_size) vecs = np.asarray(all_sentence_vecs, dtype='float32') index.add(vecs) from modelscope.outputs import OutputKeys def ask_faq(input, history=[]): # step1: get sentence vector of query query_vec = pipeline_ins.get_sentence_embedding([input])[0] query_vec = np.asarray(query_vec, dtype='float32').reshape([1, -1]) # step2: faq dense retrieval _, indices = index.search(query_vec, k=30) # step3: build support set support_set = [] for i in indices.tolist()[0]: faq = data[i] support_set.append({"text": faq.title, "label": faq.faq_id, "index": i}) # step4: faq ranking rst = pipeline_ins(input={"query_set": input, "support_set": support_set}) rst = rst[OutputKeys.OUTPUT][0][0] pred_label = rst['label'] pred_score = rst['score'] # get answer by faq_id pred_answer = "" pred_title = "" for faq in data: if faq.faq_id == pred_label: pred_answer = faq.answer pred_title = faq.title break history.append((f'{pred_answer}|(pred_title:{pred_title},pred_score:{pred_score:.3f})')) return history优化这段代码

2023-04-20 上传