본문 바로가기

전체 글113

# 4. Data Preprocessing (Label Encoder, One-Hot Encoder) 데이터 전처리는 머신러닝 알고리즘만큼 중요하다. 어떻게 처리하느냐에 따라 모델의 성능을 좌지우지 한다. 이번에는 사이킷런에서 제공하는 전처리 방법인 Label Encoder와 One-Hot Encoder에 대해 포스팅한다. # Label Encoding from sklearn.preprocessing import LabelEncoder items = ['TV', '냉장고', '전자레인지', '컴퓨터'] encoder = LabelEncoder() encoder.fit(items) labels = encoder.transform(items) print(labels) print(encoder.classes_) print(encoder.inverse_transform(labels)) >> [0 1 2 3] [.. 2021. 4. 13.
# 3. GridSearchCV GridSearchCV API는 교차검증을 기반으로 하이퍼 파라미터의 최적값을 찾는데 도움을 준다. (Grid는 격자라는 뜻으로, 촘촘하게 파라미터를 입력하면서 테스트를 하는 방식) 예를 들어, 결정 트리 알고리즘의 파라미터 조합을 찾는다고 가정해보자. 그럼 다음과 같은 파라미터가 필요할 것이다. grid_parameters = {'max_depth': [1, 2, 3], 'min_samples_split': [2, 3]} 최적의 파라미터 (max_depth, min_samples_split)의 값을 찾기 위해서는 for문을 사용하여 6번(3 * 2)에 걸쳐 하이퍼 파라미터를 변경하면서 교차 검증 데이터 세트에 수행 성능을 측정한다. 여기에 CV가 3회라면 3개의 폴딩 세트가 존재하므로 총 18번(6 *.. 2021. 4. 12.
#2. QgsFeature 이동 def canvasReleaseEvent(self, e): self.rubberBand.hide() self.rubberBand.reset() point_release: QgsPointXY = self.toMapCoordinates(e.pos()) displacement_x = point_release.x()-self.point_start.x() displacement_y = point_release.y()-self.point_start.y() geom: QgsGeometry = self.feature.geometry() geom.translate(displacement_x, displacement_y) self.layer.dataProvider().changeGeometryValues({self.fea.. 2021. 4. 9.
# 10. [Tip] lambda, map, zip 응용 필자는 오늘 동료의 코드를 보는 도중 중복이 매우 심한 코드를 보고말았다. 상황은 다음과 같다. PyQT 에서 QTableWidget에 출력해야할 데이터가 많은 상황이었다. 컬럼이 특히 많았는데 이 컬럼들을 일일이 QTableWidgetItem 인스턴스를 초기화하여 set 하는 상황이었다.. 대략 난감 -_-;; 그래서 UserRole Data는 전부 같고 Display Role 데이터만 다른 상황이었기에 필자는 이렇게 해결했다. display_tuple = ( dxf_feature.layer.name(), dxf_feature.legend_name, dxf_feature.layer_name, dxf_feature.layer_code, dxf_feature.label, dxf_feature.label_m.. 2021. 4. 1.
# 2. Stratified K 폴드 이전 포스트에서 K 폴드에 대해서 알아봤다. K 폴드의 단점은 치중되어 있는 레이블 데이터 집합을 고려하지 못한 것이다. 이게 무슨 소리인지 극단적인 예시를 들어보겠다. 10 폴드인 상태에서 1억개의 레이블 데이터 세트(분류는 O와 X)가 있고 그중 1번째부터 10번째 데이터는 O, 나머지 9999만 9990개는 X이라고 가정하자. 첫 번째 폴드를 검증 데이터 세트로 사용했을 때 1천만개의 데이터중 10개의 O가 있다. 하지만, 두 번째 폴드부터는 검증 데이터 세트로 사용할 때 전부 X 밖에 없을 것이다. 이러한 상태를 imbalanced 하다고 표현한다. imbalanced 상태를 위해 적은 레이블을 고르게 분포한 뒤에 K 폴드를 적용한다. import pandas as pd import numpy a.. 2021. 4. 1.
# 1. 교차 검증 (K-폴드 교차 검증) 교차 검증은 오버피팅(Overfitting)을 방지하기 위한 프로세스 중 하나이다. 오버피팅이 발생하는 이유는 모델의 학습이 Training-Set에만 너무 의존되어 있기 때문에 일반화가 잘 이루어지지 않아 다른 데이터가 들어오면 성능이 떨어진다. 그래서 Training-Set을 Training-Set과 Validation-Set으로 세분화하는 것이 교차 검증이다. 이를 세분화해서 무엇을 하느냐? Training-Set으로 학습된 모델을 Test-Set으로 평가하기 전에 Validation-Set으로 평가하는 것이다. 즉, 모의고사를 본다고 생각하면 된다. 우선 K-폴드 교차 검증부터 확인해보겠다. Training-Set을 K등분한다. 예를들어, 100개의 Training-Set이 있다면.. K = 1(.. 2021. 4. 1.