분류 전체보기 (131) 썸네일형 리스트형 [Deep Learning]딥러닝 ANN으로 이미지API(텐서플로우) 활용하여 이미지 분류하기 ANN(Artificial_Neural_Network)으로 텐서플로우 패션이미지API 를 활용해서 이미지를 분류하는 인공지능을 만들어보려고 한다. import numpy as np import tensorflow as tf from tensorflow.keras.datasets import fashion_mnist 1.필요한 프로젝트 import 해주기 먼저 넘파이, 텐서플로우, 그리고 텐서플로우의 케라스 모듈에서 fashion_mnist 데이터셋을 가져와서 사용할 수 있도록 준비 2. 데이터셋 로딩하기(학습 및 테스트) fashion_mnist.load_data() fashion_mnist.load_data()함수는 이미 훈련 및 테스트 데이터를 나누어 반환한다. 이 데이터는 훈련 이미지와 레이블, 그.. [Deep Learning]딥러닝의 Neural Networks and Deep Learning 흐름 Deep Learning 딥러닝은 인공신경망의 한 종류로, 대규모의 데이터를 사용하여 복잡한 패턴이나 특징을 자동으로 학습하는 머신러닝 기법이다. 이러한 신경망은 여러 개의 층(layer)으로 구성되어 있어서 "깊은 신경망"이라고 불린다. 각 층은 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 나뉜다. 입력층(input layer): 데이터를 받아들이는 층으로, 각각의 특징(feature)을 입력으로 받는다. 은닉층(hidden layer): 입력층과 출력층 사이에 위치한 중간 층으로, 데이터의 복잡한 특징을 추출한다. 출력층(output layer): 최종적으로 모델의 결과를 출력하는 층으로, 주어진 문제에 맞는 형태로 결과를 출력한다. # Imp.. [Machine Learning]머신러닝Unsupervised의Hierarchical Clustering Hierachical Clustering 계층적 군집화 -계층적 트리 모형을 이용해 개별 개체들을 순차적, 계층적으로 유사한 개체 내지 그룹과 통합하여 군집화를 수행하는 알고리즘 - K-means Clustering과 달리 군집 수를 사전에 정하지 않아도 학습을 수행할 수 있다. - Dendrogram 이용 Dendrogram 덴드로그램 - 개체들이 결합되는 순서를 나타내는 트리형태의 구조 - 적절한 수준에서 트리를 자르면 전체 데이터를 몇개 군집으로 나눌 수 있게 된다. 1.na가 있는지 확인 df.isna().sum() 했을때 모두 0이 나와 na 없음 2.X데이터 분리 Unsupervised이므로 X데이터만 분리한다. X = df.iloc[ : , 1: ] 3.Label Encoding from s.. [Machine Learning]머신러닝Unsupervised의K-Means Clustering K-Means Clustering K-Means Clustering은 비지도 학습 알고리즘으로, 데이터를 그룹화(클러스터링)하는데 사용된다. K-Means Clustering 순서 데이터 준비: 우리는 각 데이터 포인트의 위치를 나타내는 좌표를 갖고 있다.. K 설정: K-Means Clustering을 시작하기 전에 클러스터의 수 K를 정해야 한다. 여기서는 우리가 2개의 그룹으로 나누고 싶다고 가정한다. 중심 초기화: 무작위로 두 개의 점(중심)을 선택하여 각각의 그룹의 중심점으로 설정한다. 할당 단계: 각 데이터 포인트를 가장 가까운 중심에 할당한다. 이를 위해 일반적으로 유클리드 거리 등의 거리 측정 방법을 사용한다. 갱신 단계: 각 그룹의 중심을 해당 그룹에 속한 데이터 포인트들의 평균으로 업데.. [Machine Learning]머신러닝의 Decision Tree 알고리즘 Decision Tree Decision Tree는 데이터를 분류하거나 예측하는 모델 중 하나 Decision Tree 알고리즘을 이용하여 코드를 작성해보자 1.X, Y 데이터 분리 y = df['Purchased'] X = df.loc[ : , ['Age','EstimatedSalary']] 2. Feature Scaling from sklearn.preprocessing import StandardScaler scaler_X = StandardScaler() X = scaler_X.fit_transform(X) 3.Dataset을 Training 용과 Test용 나누기 from sklearn.model_selection import train_test_split X_train, X_test, y_tr.. [Machine Learning]머신러닝의 Support Vector Machine(SVM)알고리즘 SVM이란? Support Vector Machine(SVM)은 데이터를 분류하기 위한 지도학습 알고리즘 중 하나이다. 주어진 데이터를 가장 잘 나누는 초평면(hyperplane)을 찾는 것이 SVM의 목표이다. 이를 통해 데이터를 분류하거나 회귀하는 데 사용될 수 있다. 1. SVC의 작동 원리 1.X, Y 데이터 분리 y = df['Purchased'] X = df.loc[ : , ['Age','EstimatedSalary']] 2. Feature Scaling from sklearn.preprocessing import StandardScaler scaler_X = StandardScaler() X = scaler_X.fit_transform(X) 3.Dataset을 Training 용과 Test용.. [Machine Learning]머신러닝의 KNN 알고리즘(K-Nearest Neighbor) KNN의 알고리즘의 개념은 모두 숙지되었다. 이제 아래 데이터베이스를 KNN알고리즘으로 코드를 작성해보자. 1.X, Y 데이터 분리 y = df['Purchased'] X = df.loc[ : , ['Age','EstimatedSalary']] 2. Feature Scaling from sklearn.preprocessing import StandardScaler scaler_X = StandardScaler() X = scaler_X.fit_transform(X) 3.Dataset을 Training 용과 Test용 나누기 from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test =train_test_spli.. [Machine Learning]머신러닝의Confusion Matrix 및accuracy_score 사용 Confusion Matrix 실제 Negative (음성) 클래스를 예측한 Negative (음성) 클래스와 Positive (양성) 클래스로 분류한 경우: True Negative (TN) 실제 Negative (음성) 클래스를 예측한 Positive (양성) 클래스로 잘못 분류한 경우: False Positive (FP) 실제 Positive (양성) 클래스를 예측한 Positive (양성) 클래스와 Negative (음성) 클래스로 분류한 경우: True Positive (TP) 실제 Positive (양성) 클래스를 예측한 Negative (음성) 클래스로 잘못 분류한 경우: False Negative (FN) Confusion Matrix를 보면 모델이 어떤 클래스를 얼마나 정확하게 분류했는지.. 이전 1 ··· 10 11 12 13 14 15 16 17 다음