温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

USB在电磁兼容EMC方面的设计中要注意的问题有哪些

发布时间:2021-12-28 11:29:10 来源:亿速云 阅读:238 作者:柒染 栏目:互联网科技

本篇文章给大家分享的是有关USB在电磁兼容EMC方面的设计中要注意的问题有哪些,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

usb接口具有传输速度快,支持热插拔以及连接多个设备的特点,目前已经在各类计算机、消费类产品中广泛应用。

1,usb接口面临电磁兼容问题
由于usb接口其运行速率较高,容易通过usb连接线缆对外高频辐射超标,同时由于带电热插拔,容易受到瞬间电压冲击和静电干扰。因此我们在产品接口设计时,需要着重从接口滤波设计,防护设计,PCB设计、结构电缆多个方面考虑电磁兼容设计。

电磁兼容解决方案主要结合usb2.0接口电路特点,从产品原理图的接口电路出发,提供符合产品实际设计要求的具体的emc设计方案,从而使产品能够满足电磁兼容标准与规格要求,获得良好的emc品质,提升产品的可靠性。

2,usb接口标准要求
带有usb接口的典型消费类产品,需要满足相关电磁兼容要求,与usb相关的电磁兼容项目要求如下,其他如应用在军品、汽车电子、铁路电子要求则有所不一样,具体请参考相关电磁兼容标准要求。

USB在电磁兼容EMC方面的设计中要注意的问题有哪些
3,原理图emc设计
4,原理图设计要点说明

4.1滤波设计要点:

L1为共模滤波电感,用于滤除差分信号上的共模干扰;

L2为滤波磁珠,用于滤除为电源上的干扰;

C3、C4为电源滤波电容,滤除电源上的干扰;

C1、C2 为预留设计,注意电容尽量小,如实际影响信号传输,可以不焊接。

4.2防护设计要点:

D1、D2、D3组成usb接口防护电路,能快速泄放静电干扰,避免内部电路遭受静电的干扰。

C5、C6为接口地和数字地之间的跨接电容,典型取值为1000pF,耐压要求达到2KV以上。

4.3 特殊要求:

4.3 R1、R2为限流电阻,差分线之间耦合会影响信号线的外在阻抗,可以用此电阻实现终端最佳匹配,使用时根据实际情况进行调整。


4.4 器件选型要求:

L1为共模电感,共模电感阻抗选择范围为60Ω/100MHz~120Ω/100MHz,典型值选取90Ω/100MHz

L2选用磁珠,磁珠阻抗范围为100Ω/100MHz~1000Ω/100MHz,典型值选取600Ω/100MHz ;磁珠在选取时通流量应符合电路电流的要求,磁珠推荐使用电源用磁珠

C3、C4两个电容在取值时要相差100倍,典型值为1000pF、0.1uF;小电容用滤除电源上的高频干扰,大电容用于滤除电源线上的纹波干扰;

D1、D2、D3选用TVS,TVS反向关断电压为5V。TVS管的结电容对信号传输频率有一定的影响,usb2.0的TVS结电容小于5pF;

C5、C6为接口地和数字地之间的跨接电容,典型取值为1000pF,耐压要求达到2KV以上。

5,PCB设计说明

5.1布局设计要点

元器件布局要按照信号流向进行布局;

防护器件要尽可能的靠近接口放置,确保引线电感最小,以保证防护器件能正常的进行防护动作。

应将芯片放置在离地层最近的信号层,并尽量靠近usb插座,缩短差分线走线距离。

5.2布线设计要点

共模电感下方不能走其它信号线。

如果usb接口芯片需串联端电阻或者D线接上拉电阻时.务必将这些电阻尽可能的靠近芯片放置。

将usb差分信号线布在离地层最近的信号层。

保持usb差分线下端地层完整性,如果分割差分线下端的地层,会造成差分线阻抗的不连续性,并会增加外部噪声对差分线的影响。

在usb差分线的布线过程中,应避免在差分线上放置过孔(via),过孔会造成差分线阻抗失配。

保证差分线的线间距在走线过程中的一致性,如果在走线过程中差分线的间距发生改变,会造成差分线阻抗的不连续性。

在绘制差分线的过程中,使用45°弯角或圆弧弯角来代替90°弯角,并尽量在差分线周围的150 mil范围内不要走其他的信号线,特别是边沿比较陡峭的数字信号线更加要注意其走线不能影响usb差分线。

以上就是USB在电磁兼容EMC方面的设计中要注意的问题有哪些,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI