用proteus库也编译过一个进行3次加法的尛程序能够正常debug 用proteus库编码以下的程序,编译成功后进行debug,
代码功能反序存放数据,并把其中的小写字母变成大写字母存放
代码如下只是用来计算数据里面的负数个数并存储到数据的后面:
所以问题来了,这是软件问题还是代码问题
一个寄存器8bit存储8个0或者1,那么實际ADC_res的数值是16进制还是每个01组成的二进制数?
AD转换结果公式都是以10进制形式表达ADC_res数值还是十进制的?谁能够告诉下ADC_res最终数值是以什麼形式表达的?
纠结于是把二进制转换成十进制还是16进制转换成10进制再转换成ascii码显示(用数组的方法选择ascii码)还有什么可以不用数组的方法么?
对于上面那一句话需要2次转换?还有什么可行的方法尽量方便的?
软件调试设定一个变量,赋值为16进制数值对16进制数值鼡十进制数值进行取余或者整除,这是可行的
这是keil规定还是C语言的规定,是否有通用性(固定)
那么:在各种运算加减乘除,取余中與或运算,若是出现十进制数值[16进制(或者其他)与十进制一起的运算]这个还能够成立?