金沙js0888_首頁(欢迎您)

  • <td id="dgejl"><strike id="dgejl"></strike></td>
        1. Python开发者宝典:10个有用的机器学习实践!

          编译作者: 布加迪 2020-05-29 07:00:00

          Python开发者宝典:10个有用的机器学习实践!

          【51CTO.com快译】

          有时作为数据科学家,我们忘了自己是干什么的。我们主要是开发者,然后是研究者,最后可能是数学家。我们的首要责任是快速开发没有错误的解决方案。

          就因为我们能构建模型并不意味着我们就是神,这没有给我们编写垃圾代码的自由。

          自一开始,我犯过很多错误,想透露一下我认为是机器学习工程最常见的技能。我认为,这也是眼下业界最缺乏的技能。

          我称他们为不懂软件的数据科学家,因为他们中很多人都是不是计算机专业科班出身的工程师。而我本人就是那样。

          如果要聘一位优秀的数据科学家和一位优秀的机器学习工程师,我会聘后者。

          1. 学习编写抽象类。

          一旦你开始编写抽象类,就知道可以如何让你的代码库清晰许多。它们强制执行同样的方法和方法名称。如果很多人从事同一个项目,每个人会开始采用不同的方法。这会造成严重的混乱。

          1. import os  
          2. from abc import ABCMeta, abstractmethod  
          3. class DataProcessor(metaclass=ABCMeta):  
          4. """Base processor to be used for all preparation."""  
          5. def __init__(self, input_directory, output_directory):  
          6. self.input_directory = input_directory  
          7. self.output_directory = output_directory  
          8. @abstractmethod  
          9. def read(self):  
          10. """Read raw data."""  
          11. @abstractmethod  
          12. def process(self):  
          13. """Processes raw data. This step should create the raw dataframe with all the required features. Shouldn't implement statistical or text cleaning."""  
          14. @abstractmethod  
          15. def save(self):  
          16. """Saves processed data."""  
          17. class Trainer(metaclass=ABCMeta):  
          18. """Base trainer to be used for all models."""  
          19. def __init__(self, directory):  
          20. self.directory = directory  
          21. self.model_directory = os.path.join(directory, 'models' 
          22. @abstractmethod  
          23. def preprocess(self):  
          24. """This takes the preprocessed data and returns clean data. This is more about statistical or text cleaning."""  
          25. @abstractmethod  
          26. def set_model(self):  
          27. """Define model here."""  
          28. @abstractmethod  
          29. def fit_model(self):  
          30. """This takes the vectorised data and returns a trained model."""  
          31. @abstractmethod  
          32. def generate_metrics(self):  
          33. """Generates metric with trained model and test data.""" 
          34. @abstractmethod  
          35. def save_model(self, model_name):  
          36. """This method saves the model in our required format."""  
          37. class Predict(metaclass=ABCMeta):  
          38. """Base predictor to be used for all models.""" 
          39. def __init__(self, directory):  
          40. self.directory = directory  
          41. self.model_directory = os.path.join(directory, 'models' 
          42. @abstractmethod  
          43. def load_model(self):  
          44. """Load model here."""  
          45. @abstractmethod  
          46. def preprocess(self):  
          47. """This takes the raw data and returns clean data for prediction.""" 
          48. @abstractmethod  
          49. def predict(self):  
          50. """This is used for prediction."""  
          51. class BaseDB(metaclass=ABCMeta): 
          52. """ Base database class to be used for all DB connectors."""  
          53. @abstractmethod  
          54. def get_connection(self):  
          55. """This creates a new DB connection."""  
          56. @abstractmethod  
          57. def close_connection(self):  
          58. """This closes the DB connection."""  

          2. 搞定最上面的seed。

          试验的可重现性很重要,而seed是大敌。处理好seed。不然,它会导致神经网络中训练/测试数据的不同分隔和权重的不同初始化。这会导致结果不一致。

          1. def set_seed(args):  
          2. random.seed(args.seed)  
          3. np.random.seed(args.seed)  
          4. torch.manual_seed(args.seed)  
          5. if args.n_gpu > 0:  
          6. torch.cuda.manual_seed_all(args.seed)  

          3. 从几行入手。

          如果你的数据太庞大,又处在编程的后期阶段(比如清理数据或建模),就使用nrows避免每次加载庞大数据。如果你只想测试代码、不想实际运行全部代码,就使用这招。

          如果你的本地PC配置不足以处理数据大小,这一招很有用,但你喜欢在Jupyter/VS code/Atom上进行本地开发。

          1. df_train = pd.read_csv(‘train.csv’, nrows=1000) 

          4. 预料失败(这是成熟开发者的标志)。

          始终检查数据中的NA,因为这些会在以后给你带来问题。即便你目前的数据没有任何NA,也并不意味着它不会出现在将来的再训练循环中。所以无论如何要检查。

          1. print(len(df))  
          2. df.isna().sum()  
          3. df.dropna()  
          4. print(len(df))  

          5. 显示处理的进度。

          你在处理庞大数据时,知道要花多少时间、处于整个处理过程中的哪个环节,绝对让人安心。

          方法1 — tqdm

          1. from tqdm import tqdm  
          2. import time  
          3. tqdm.pandas()  
          4. df['col'] = df['col'].progress_apply(lambda x: x**2)  
          5. text = ""  
          6. for char in tqdm(["a""b""c""d"]):  
          7. time.sleep(0.25)  
          8. text = text + char  

          方法2 — fastprogress

          1. from fastprogress.fastprogress import master_bar, progress_bar  
          2. from time import sleep  
          3. mb = master_bar(range(10))  
          4. for i in mb:  
          5. for j in progress_bar(range(100), parent=mb):  
          6. sleep(0.01)  
          7. mb.child.comment = f'second bar stat'  
          8. mb.first_bar.comment = f'first bar stat'  
          9. mb.write(f'Finished loop {i}.' 

          6. Pandas可能很慢。

          如果你接触过pandas,就知道它有时会变得多慢,尤其是执行groupby操作时。不必绞尽脑汁为提速寻找“出色的”解决方案,只要更改一行代码,使用modin就行。

          1. import modin.pandas as pd 

          7. 为函数计时。

          不是所有函数都是一样的。

          即便全部代码没问题,也不意味着你编写的是出色的代码。一些软错误实际上会使代码运行起来比较慢,有必要把它们找出来。使用这个装饰器来记录函数的时间。

          1. import time  
          2. def timing(f):  
          3. """Decorator for timing functions  
          4. Usage:  
          5. @timing  
          6. def function(a):  
          7. pass 
          8. "" 
          9. @wraps(f)  
          10. def wrapper(*args, **kwargs):  
          11. start = time.time()  
          12. result = f(*args, **kwargs)  
          13. end = time.time()  
          14. print('function:%r took: %2.2f sec' % (f.__name__, end - start)) 
          15. return result  
          16. return wrapper  

          8. 别把钱耗费在云上。

          没人喜欢浪费云资源的工程师。

          一些试验可能持续数小时。很难跟踪试验、云实例用完后关闭。本人就犯过这种错误,也见过有人任由实例运行数天。

          只是在执行结束时调用该函数,永远不会有麻烦!

          但用try包主代码,并用except再采用这种方法,那样如果出现了错误,服务器不会处于继续运行的状态。是的,我也处理过这种情况。

          不妨负责任一点,别生成二氧化碳了。

          1. import os  
          2. def run_command(cmd):  
          3. return os.system(cmd)  
          4. def shutdown(seconds=0, os='linux'):  
          5. """Shutdown system after seconds given. Useful for shutting EC2 to save costs."""  
          6. if os == 'linux' 
          7. run_command('sudo shutdown -h -t sec %s' % seconds)  
          8. elif os == 'windows' 
          9. run_command('shutdown -s -t %s' % seconds)  

          9. 创建和保存报告。

          建模中某个点之后,所有宝贵的信息只来自错误和度量分析。确保为你自己和你的经理创建和保存格式完好的报告。

          不管怎样,管理层爱看报告,不是吗?

          1. import json  
          2. import os  
          3. from sklearn.metrics import (accuracy_score, classification_report,  
          4. confusion_matrix, f1_score, fbeta_score)  
          5. def get_metrics(y, y_pred, beta=2, average_method='macro', y_encoder=None):  
          6. if y_encoder:  
          7. y = y_encoder.inverse_transform(y)  
          8. y_pred = y_encoder.inverse_transform(y_pred)  
          9. return {  
          10. 'accuracy': round(accuracy_score(y, y_pred), 4),  
          11. 'f1_score_macro': round(f1_score(y, y_pred, average=average_method), 4),  
          12. 'fbeta_score_macro': round(fbeta_score(y, y_pred, beta, average=average_method), 4),  
          13. 'report': classification_report(y, y_pred, output_dict=True),  
          14. 'report_csv': classification_report(y, y_pred, output_dict=False).replace('\n','\r\n' 
          15.  
          16. def save_metrics(metrics: dict, model_directory, file_name):  
          17. path = os.path.join(model_directory, file_name + '_report.txt' 
          18. classification_report_to_csv(metrics['report_csv'], path)  
          19. metrics.pop('report_csv' 
          20. path = os.path.join(model_directory, file_name + '_metrics.json' 
          21. json.dump(metrics, open(path, 'w'), indent=4)  

          10. 编写出色的API。

          所有结尾不好的代码都是不好的。

          你的数据清理和建模可能做得很好,但最后还是会造成大混乱。经验告诉我,许多人不清楚如何编写优秀的API、文档和服务器配置。

          以下是负载不太高(比如1000/分钟)的典型的机器学习和深度学习部署的好方法。

          不妨见识这对组合Fastapi + uvicorn

          • 最快:用fastapi编写API,因为就I/O型操作而言它是速度最快的(https://www.techempower.com/benchmarks/#section=test&runid=7464e520-0dc2-473d-bd34-dbdfd7e85911&hw=ph&test=query&l=zijzen-7),原因在此(https://fastapi.tiangolo.com/benchmarks/)有解释。
          • 说明文档:用fastapi编写API为我们在http:url/docs提供了免费文档和测试端点→我们更改代码时,由fastapi自动生成和更新。
          • Workers:使用uvicorn部署API。

          运行这些命令使用4个workers来部署。通过负载测试来优化workers的数量。

          1. pip install fastapi uvicorn  
          2. uvicorn main:app --workers 4 --host 0.0.0.0 --port 8000  

          Python开发者宝典:10个有用的机器学习实践!

          原文标题:10 Useful Machine Learning Practices For Python Developers,作者:Pratik Bhavsar

          【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】

          Python 机器学习 编程语言
          上一篇:可再生能源与机器学习“双重加持”,谷歌成功实现风力预测 下一篇:2020年人工智能(AI)十大趋势应用
          评论
          取消
          暂无评论,快去成为第一个评论的人吧

          更多资讯推荐

          100天搞定机器学习:模型训练好了,然后呢?

          佚名 ·? 2天前
          MIT科学家设计的新系统可以在几小时内创造出海星机器人

          据外媒报道,在研究水下海洋生物时,如果能使用一种不会因为对动物来说显得不自然而吓到它们的设备,就会有所帮助。麻省理工学院(MIT)的科学家们就考虑到了这一点,利用一种新的快速开发系统,创造了一种海星机器人。

          佚名 ·? 2天前
          一个可以进行机器学习特征选择的Python工具

          特征选择 是在数据集中寻找和选择最有用的特征的过程,是 机器学习 pipeline中的一个关键步骤。不必要的特征降低了训练速度,降低了模型的可解释性,最重要的是,降低了测试集的泛化性能。

          佚名 ·? 2天前
          人工智能技术的起点与终点

          人工智能技术发展的结果,不仅体现于机器在一个局部生产环节中可以独立地创造价值。人工智能技术发展的结果,也体现于机器体系在一个行业生产线中的多个局部生产环节中,以科学的方式进行有机地协作。

          哲学发现 ·? 2天前
          人工智能和机器学习的质量保证

          人工智能和机器学校(ML)的质量检查正在快速发展。了解它为什么重要以及数据质量与机器学习(Machine Learning,以下简称ML)模型的准确性以及AI计划的成功有何关系。

          佚名 ·? 2天前
          一种基于机器学习的自动文档标签图谱技术

          本文主要详细讲解了是个方面,即:知识图谱技术发展趋势、基于机器学习的标签图谱技术思路、关键技术分析、典型应用案例分享。

          佚名 ·? 3天前
          Java为什么不能真正支持机器/深度学习?到底还欠缺了什么

          自1998年以来,就多个企业的变革而言,Java一直处于领先地位 - 网络,移动,浏览器与原生,消息传递,i18n和l10n全球化支持,扩展和支持各种企业信息存储值得一提的是,从关系数据库到Elasticsearch。

          佚名 ·? 3天前
          到2025年,机器学习市场规模将达967亿美元

          市场调查机构Grand View Research最近发布的《机器学习市场报告2025》预计,到2025年,全球机器学习市场的价值将达到967亿美元。由于中国等新兴市场对机器学习技术的使用不断增加,亚太地区预计将在未来几年实现最快的增长。

          Yu ·? 3天前
          Copyright?2005-2021 51CTO.COM 版权所有 未经许可 请勿转载
          金沙js0888