首页
每日头条
深度报道
论坛
在线研讨会
业界动态
设计应用
牛人业话
暴力拆解
EEPW观点
EETV
电子方案
资源下载
博客分类
嵌入式系统
元件/连接器
电源与新能源
安防与国防
汽车电子
EDA/PCB
消费电子
工控自动化
模拟技术
医疗电子
测试测量
手机与无线通信
光电显示
网络与存储
智能计算
物联网与传感器
EEPW
»
博客首页
» 智能计算
智能计算
浪潮云洲拥抱人机协同,赋能数字经济高质量发展
为进一步加速数实融合,高效安全地推进实体经济数智化升级,7月20日,"人机协同 智安未来"2023数字经济高质量发展专题交流会在重庆举办,由渝北区人民政府指导,浪潮云洲主办,国~~~
12345zhi
2023-07-24 11:00
一文详解双目结构光重建原理和视场
01 测量原理通常,双目结构光扫描仪采用两台型号完全相同的相机,并且呈对称布置,投影仪放置在中间,假设它们处在同一水平线,如下图所示:图1 双目测距模型其中:成像面尺寸:、成像焦距:传感器坐标系:成像~~~
计算机视觉工坊
2023-07-24 07:23
Meta最新开源!跟踪一切升级版!性能超越OmniMotion!
0. 笔者个人体会最近几个月,CV界真是跟“一切”杠上了。先是Meta在4月5日发布了Segment Anything,可以为任何图像中的任何物体提供Mask。随后又涌现出大量的二创“一切”,例如SA~~~
计算机视觉工坊
2023-07-24 07:22
击败Llama 2,抗衡GPT-3.5,Stability AI新模型登顶开源大模型排行榜
一眨眼,开源大模型又进步了。谷歌、OpenAI真的没有护城河?「我就午休了 30 分钟,我们的领域又变了?」在看到最新的开源大模型排行榜后,一位 AI 领域的创业者发出了灵魂追问。排行榜链接:http~~~
机器之心
2023-07-24 07:20
ImageNet-1K压缩20倍,Top-1精度首超60%:大规模数据集蒸馏转折点
该工作是目前唯一实现了大规模高分辨率数据集蒸馏的框架过去几年,数据压缩或蒸馏任务引起了人们的广泛关注。通过将大规模数据集压缩成具有代表性的紧凑子集,数据压缩方法有助于实现模型的快速训练和数据的高效存储~~~
机器之心
2023-07-24 07:19
树莓派上运行 Stable Diffusion,260MB 的 RAM「hold」住 10 亿参数大模型
Stable Diffusion 能在树莓派上运行了!11 个月前 Stable Diffusion 诞生,它能够在消费级 GPU 上运行的消息让不少研究者备受鼓舞。不仅如此,苹果官方很快下场,将 S~~~
机器之心
2023-07-24 07:18
我为什么放弃了 LangChain?(2)
我查看了 LangChain 文档,它也回馈了我让我来做个演示,更清楚地说明为什么我放弃了 LangChain。当开发菜谱检索聊天机器人(它也必须是一个有趣 / 诙谐的聊天机器人)时,我需要结合上面第~~~
机器之心
2023-07-24 07:17
我为什么放弃了 LangChain?(1)
「LangChain 的流行已经扭曲了围绕其本身的人工智能创业生态系统,这就是为什么我不得不坦诚自己对它的疑虑。」如果你关注了过去几个月中人工智能的爆炸式发展,那你大概率听说过 LangChain。简~~~
机器之心
2023-07-24 07:16
CVPR2023 l 自动驾驶中统一感知和预测的隐式占位流场新范式!
1 前言自动驾驶车辆必须能够感知周围环境并预测其他交通参与者的未来行为。现有的研究要么进行目标检测,然后对检测到的目标进行轨迹预测,要么对整个场景进行密集的占位和流格预测。前者存在安全问题,因为为了提~~~
计算机视觉工坊
2023-07-19 19:44
Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强(3)
与以往方法的联系和区别表 1 从不同角度对 RetNet 与以往的方法进行了比较。对比结果与图 2 所示的「不可能三角」相呼应。此外,RetNet 对于长序列具有线性记忆复杂性,因为它采用了分块循环表~~~
计算机视觉工坊
2023-07-19 19:43
Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强(2)
Retentive 网络RetNet 由 L 个相同的块堆叠而成,其布局与 Transformer 类似(即残差连接和 pre-LayerNorm)。每个 RetNet 块包含两个模块:多尺度rete~~~
计算机视觉工坊
2023-07-19 19:42
Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强(1)
LLM 的成功,某种程度上要归功于 Transformer 架构在自然语言处理任务上的突破。该架构最初是为了克服循环模型的 sequential training 问题而提出的。这些年来,Transf~~~
计算机视觉工坊
2023-07-19 19:40
0参数量 + 0训练,3D点云分析方法Point-NN刷新多项SOTA(2)
2.Point–NN 在其他 3D 任务的拓展以上主要是对 Point-NN 在分类任务中的应用的介绍,Point-NN 也可以被用于 3D 的部件分割和 3D 目标检测任务。(1)部件分割 (3D ~~~
机器之心
2023-07-19 19:39
0参数量 + 0训练,3D点云分析方法Point-NN刷新多项SOTA(1)
不引入任何可学习参数或训练,是否可以直接实现 3D 点云的分类、分割和检测?论文链接:https://arxiv.org/pdf/2303.08134.pdf代码地址:https://github.c~~~
机器之心
2023-07-19 19:38
WAIC 2023 | 微软Office产品团队技术负责人蔡玮鑫:Copilot中大语言模型应用实践经验
以下为演讲的详细内容,机器之心进行了不改变原意的编辑、整理。大家好,我是蔡玮鑫,微软 Office Product Group 的技术负责人。今天我要谈的话题是将大语言模型投入大规模应用生产要面临的挑~~~
机器之心
2023-07-19 19:37
更强的Llama 2开源,可直接商用:一夜之间,大模型格局变了(2)
微调Llama 2-Chat 是数个月研究和迭代应用对齐技术(包括指令调整和 RLHF)的成果,需要大量的计算和注释资源。监督微调 (SFT)第三方监督微调数据可从许多不同来源获得,但 Meta 发现~~~
机器之心
2023-07-19 19:35
更强的Llama 2开源,可直接商用:一夜之间,大模型格局变了(1)
已上微软 Azure,即将要上 AWS、Hugging Face。一夜之间,大模型格局再次发生巨变。一直以来 Llama 可以说是 AI 社区内最强大的开源大模型。但因为开源协议问题,一直不可免费商用~~~
机器之心
2023-07-19 19:35
Transformer的细节到底是怎么样的?Transformer 18问!(3)
10. 什么是Self attention?10.1 介绍Transformer,为什么要介绍self Attention呢?因为在Transformer中最多的multi head attentio~~~
数据派THU
2023-07-19 19:33
Transformer的细节到底是怎么样的?Transformer 18问!(2)
6. Transformer Encoder和Transformer Decoder有哪些不同?6.1 作用上,Transformer Encoder常用来提取特征,Transformer Decod~~~
数据派THU
2023-07-19 19:32
Transformer的细节到底是怎么样的?Transformer 18问!(1)
来源丨知乎作者丨爱问问题的王宸@知乎为什么想通过十八个问题的方式总结Transformer?有两点原因:第一,Transformer是既MLP、RNN、CNN之后的第四大特征提取器,也被称为第四大基础~~~
数据派THU
2023-07-19 19:31
|‹
«
9
10
11
12
13
14
»
›|
发表文章
业界动态
研华发布RK3588 SMARC 2.1核心模块ROM-6881助力机器视觉应用智能升级
"人-机-物智能"的挑战、思考及应用实践
以中国半导体市场的活力助推ERS快速成长
助力新能源汽车企业把驾驶汽车变得更安全、更环保、更互联
基于PSoC™ 6 Matter的智能家居解决方案
资料下载
继电器模块 - DFR0017
液体流量传感器 - 314150001
电源模块 - DFR0140
OLED显示屏-104020208OEL
nucleo-f103rb原理图.pdf
AI8051U 实验箱 V1.2 雕刻机保护系统的作业
MM32F5370Cormark跑分测试
LED
专栏作者
芯智讯的空间
美男子玩编程的空间
芯股婶的空间
ht1973的空间
电子禅石的空间
传感器技术的空间
旺材芯片的空间
英飞凌汽车电子生态圈
芯谋研究的空间
深科技的空间