详细介绍
品牌 | 其他品牌 | 准确度/精密度 | 1 |
---|---|---|---|
分辨率 | 0.01mg/l | 检测时间 | 1min |
价格区间 | 面议 | 检测原理 | 光度法 |
产地类别 | 国产 | 仪器种类 | 实验室型 |
SN-200T-M8 重金属多参数水质测定仪 一体机消解测量
注:重金属多参数水质测定仪可任意搭配指标,目前可支持8个指标同一台设备上检测。因检测的指标不同,选择的指标数量不同,价格也不相同,准确报价请联系销售人员。
可选指标:六价铬、总铬、钡、铜、铁、亚铁、镍、锌。
SN-200T-M8 重金属多参数水质测定仪 一体机消解测量 产品介绍:
该产品将比色法与计算机技术结合起来,应用微电脑光电子比色检测原理,消除了人为误差,提高了测量分辨率。该产品具有自动PID控温、双液晶显示、交直流两用、自动调零、浓度直读、曲线存储、自动打印等特点,仪器操作简便,人机交互式操作,使用者无需复杂知识即可应用本产品。
SN-200T-M8 重金属多参数水质测定仪 一体机消解测量 功能特点:
1、双LCD显示器,大屏幕液晶背光显示,240*128点阵,中文操作界面,人性化程序设计。
2、测量范围宽,并可据水样实际情况自动进行量程切换。
3、测定与消解系统分别设计,独立电源控制,操作过程可分别进行,互不影响。
4、自动恒温控制系统,PID调节技术,消解过程温度恒定。
5、1点至7点校正模式,自动计算斜率、截距及相关系数。
6、故障自诊断智能设计,使仪器管理和维护简易方便。
7、仪器内置实时时钟,测量记录都带有测量时间戳,方便统计与查询。
8、大容量数据存储,断电保护设计,确保仪器不易受损和数据记录不易丢失。
9、抗干扰力强,适用于工业现场,可应用于地表水和污染源的监控。
10、仪器采用半导体冷光源发光器,光学电路设计,抗干扰力强,光源寿命长。
11、具有数据输出接口,可连接电脑,将测量数据传输至电脑。
12、仪器自带热敏式打印机,可直接打印测量数据和历史数据。
系统参数:
1、 同时消解样品数量:≤ 12支;
2、 消解温度控制范围:≤200℃,时间控制范围≤999分钟,自动定时;
3、 曲线参数:每种指标各可设定100条测量曲线参数;
4、 数据存储:可存储30000条测量数据;
5、 数据校准:1-7点校正模式,自动校正曲线值;
6、 环境温度:(5~40)℃;环境湿度:相对湿度<85%(无冷凝);
7、 工作电源:AC 220V±10% / 50Hz;
8、 指标参数:
测定指标 | 测定方法 | 根据标准 | 测定范围 (超量程可稀释测量) | 测定误差 |
六价铬 | 二苯碳酰二肼法 | GB7467-87 | 0.01mg/L~5mg/L | ≤+5% |
总铬 | 高锰酸加氧化分光光度法 | GB7466-87 | 0.01~10mg/L | ≤+5% |
钡 | 四苯硼钠比浊法 | 美国EPA认可标准 | 0.01~30mg/L | ≤+5% |
铜 | 铜试剂分光光度法 | HJ/T485-2009 | 0.01~50mg/L | ≤+5% |
铁 | 邻菲罗啉分光光度法 | HJ/T345-2007 | 0.01~50mg/L | ≤+5% |
亚铁 | 邻菲罗啉分光光度法 | HJ/T345-2007 | 0.01~50mg/L | ≤+5% |
镍 | 丁二酮肟分光光度法 | GB11910-89 | 0.01~50mg/L | ≤+5% |
锌 | 锌试剂分光光度法 | 美国EPA认可方法 | 0.01~20mg/L | ≤+5% |
六价铬
① 测定方法:分光光度法;
② 测定范围:0.01mg/L~5mg/L(>1mg/L时分段测定,超量程可稀释测量);
③ 测量误差:≤±5 %;
总铬
① 测定方法:高锰酸加氧化分光光度法
② 测定范围:0.01~10mg/L (超量程可稀释测量); .
③ 测量误差:≤±5 %;
钡
① 测定方法:四苯硼钠比浊法;
② 测定范围:0.01mg/L~30mg/L(>5 mg/L时分段测定,超量程可稀释测量);
③ 测量误差:≤±5 %;
铜
① 测定方法:铜试剂分光光度法
② 测定范围:0.01~50mg/L (超量程可稀释测量);
③ 测量误差:≤±5 %;
铁
① 测定方法:邻菲罗啉分光光度法
② 测定范围:0.01~50mg/L (超量程可稀释测量);
③ 测量误差:≤±5 %;
亚铁
① 测定方法:邻菲罗啉分光光度法
② 测定范围:0.01~50mg/L (超量程可稀释测量);
③ 测量误差:≤±5 %;
镍
① 测定方法:丁二酮肟分光光度法
② 测定范围:0.01~50mg/L (超量程可稀释测量);
③ 测量误差:≤±5 %;
锌
① 测定方法:锌试剂分光光度法
② 测定范围:0.01~20mg/L (超量程可稀释测量);
③ 测量误差:≤±5 %;
产品咨询
微信公众号
移动端浏览