Meta2032系统开发(开发案例)及源码方案
元宇宙是由虚拟现实、增强现实和互联网相结合创造的沉浸式数字世界。元宇宙的内涵及关键技术要求进一步打破时空限制(5G和物联网),真实沉浸感(VR),价值的传递(Web 3.0、区块链)。此前,IDC还绘制了元宇宙涵盖的技术概念。
元宇宙既包含数字经济中的5G、人工智能、区块链、云计算、大数据,也融合了对VR、AR、脑机接口、物联网等技术的前瞻布局。发展元宇宙,关键在于大力提升自主创新能力,突破关键核心技术,实现高质量发展。
import torch
import os
from transformers import BertTokenizer
import onnxruntime as ort
import numpy as np
GPU_IDS='-1'#模型格式转换可以不用GPU
model,device=load_model_and_parallel(model,GPU_IDS,CKPT_PATH)
#CKPT_PATH是训练好的bert模型pt文件的地址
model.eval()
tokenizer=BertTokenizer('vocab.txt')#bert词表
with torch.no_grad():开发I35源码7O98案例O7I8
sen='今天天气很好'
关于区块链项目技术开发唯:MrsFu123,代币发行、dapp智能合约开发、链游开发、多链钱包开发
交易所开发、量化合约开发、互助游戏开发、Nft数字藏品开发、众筹互助开发、元宇宙开发、swap开发、
链上合约开发、ido开发、商城开发等,开发过各种各样的系统模式,更有多种模式、制度、案例、后台等,成熟技术团队,欢迎实体参考。
sent_tokens=fine_grade_tokenize(sen,tokenizer)
encode_dict=tokenizer.encode_plus(text=sent_tokens,
max_length=MAX_SEQ_LEN,
is_pretokenized=True,
pad_to_max_length=True,
return_tensors='pt',
return_token_type_ids=True,
return_attention_mask=True)
samples={'token_ids':encode_dict['input_ids'],
'attention_masks':encode_dict['attention_masks'],
'token_type_ids':encode_dict['token_type_ids']}
for sample in samples:
samples[sample]=samples[sample].to(device)
output1,output2=model(**samples)#模型输出可能有多个,此处假设有两个
def fine_grade_tokenize(raw_text,tokenizer):
"""
序列标注任务BERT分词器可能会导致标注偏移,
用char-level来tokenize
"""
tokens=[]
for _ch in raw_text:
if _ch in['','t','n']:
tokens.append('[BLANK]')
else:
if not len(tokenizer.tokenize(_ch)):
tokens.append('[INV]')
else:
tokens.append(_ch)
return tokens
def load_model_and_parallel(model,gpu_ids,ckpt_path=None,strict=True):
"""
加载模型&放置到GPU中(单卡/多卡)
"""
gpu_ids=gpu_ids.split(',')
#set to device to the first cuda
device=torch.device("cpu"if gpu_ids[0]=='-1'else"cuda:"+gpu_ids[0])
if ckpt_path is not None:
logger.info(f'Load ckpt from{ckpt_path}')
model.load_state_dict(torch.load(ckpt_path,map_location=torch.device('cpu')),strict=strict)
model.to(device)
if len(gpu_ids)>1:
logger.info(f'Use multi gpus in:{gpu_ids}')
gpu_ids=[int(x)for x in gpu_ids]
model=torch.nn.DataParallel(model,device_ids=gpu_ids)
else:
logger.info(f'Use single gpu in:{gpu_ids}')
return model,device