温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

strcpy和strncpy用法和区别

发布时间:2020-07-22 20:37:05 来源:网络 阅读:2478 作者:li19910110 栏目:编程语言

void *memcpy(void *dest, const void *src, int n);

功能:

      从源src所指的内存地址的起始位置开始拷贝n个字节到目标dest所指的内存地址的起始位置中。

头文件:

      #include <string.h>

返回值:

     指向dest的指针。

 

char *strcpy(char *dest, char *src);

功能:

      把src所指由'\0'结束的字符串复制到dest所指的数组中。

头文件:

      #include "string.h"

返回值:

      指向dest的指针。

 

char * strncpy(char *dest, char *src, size_t n);

功能:

      将字符串src中最多n个字符复制到字符数组dest中

返回值:

      指向dest的指针。

头文件:

      #include "string.h"

 

memcpy说明:

  1.src和dest所指内存区域不能重叠,函数返回指向dest的指针。

  2.与strcpy相比,memcpy并不是遇到'\0'就结束,而是一定会拷贝完n个字节。

  3.如果目标数组destin本身已有数据,执行memcpy()后,将覆盖原有数据(最多覆盖n)。如果要追加数据,则每次执行memcpy后,要将目标数组地址增加到你要追加数据的地址。

  //注意,src和dest都不一定是数组,任意的可读写的空间均可。

 

strcpy说明:

      src和dest所指内存区域不可以重叠且dest必须有足够的空间来容纳src的字符串。  

      当src串长度>dest串长度时,程序仍会将整个src串复制到dest区域,可是dest数组已发生溢出。因此会导致dest栈空间溢出以致产生崩溃异常。如果不考虑src串的完整性,可以把dest数组最后一元素置为NULL,从dest串长度处插入NULL截取字串。

 

strncpy说明:

      它并不像strcpy一样只有遇到NULL才停止复制,而是多了一个条件停止,就是说如果复制到第n个字符还未遇到NULL,也一样停止。

      如果n > dest串长度,dest栈空间溢出产生崩溃异常。

      否则:

      1)src串长度<=dest串长度,(这里的串长度包含串尾NULL字符)

      如果n=(0, src串长度),src的前n个字符复制到dest中。但是由于没有NULL字符,所以直接访问dest串会发生栈溢出的异常情况。

      如果n = src串长度,与strcpy一致。

      如果n = dest串长度,[0,src串长度]处存放于desk字串,(src串长度, dest串长度]处存放NULL。

      2)src串长度>dest串长度

      如果n =dest串长度,则dest串没有NULL字符,会导致输出会有乱码。如果不考虑src串复制完整性,可以将dest最后一字符置为NULL。

      综上,一般情况下,使用strncpy时,建议将n置为dest串长度(除非你将多个src串都复制到dest数组,并且从dest尾部反向操作),复制完毕后,为保险起见,将dest串最后一字符置NULL,避免发生在第2)种情况下的输出乱码问题。当然喽,无论是strcpy还是strncpy,保证src串长度<dest串长度才是最重要的。

 

 

strncpy_s:目标空间长度不够时,会弹出assert,使copy不能正常完成,使用时需要指定源缓冲区大小。

                   _s函数只是windows提供的特有函数,功能比较强大,但是在有跨平台需求的软件中,不建议使用。

strncpy:拷贝你指定的个数或者碰到'\0',不验证源缓冲区长度,可能造成越界。

memcpy:不理'\0',只拷贝你指定的个数,故strcpy可以不指定字符串长度,实现整串copy,而memcpy必定要指定长度。

 


向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI