ಅನಾಮಧೇಯ ಓದುಗರೊಬ್ಬರು TechCrunch ನಿಂದ ವರದಿಯನ್ನು ಉಲ್ಲೇಖಿಸಿದ್ದಾರೆ: ಆಂಥ್ರೊಪಿಕ್ ಪ್ರಕಾರ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಕಾಲ್ಪನಿಕ ಚಿತ್ರಣಗಳು AI ಮಾದರಿಗಳ ಮೇಲೆ ನಿಜವಾದ ಪರಿಣಾಮ ಬೀರಬಹುದು. ಕಳೆದ ವರ್ಷ, ಕಂಪನಿಯು ಕಾಲ್ಪನಿಕ ಕಂಪನಿಯನ್ನು ಒಳಗೊಂಡಿರುವ ಪೂರ್ವ-ಬಿಡುಗಡೆ ಪರೀಕ್ಷೆಗಳ ಸಮಯದಲ್ಲಿ, ಕ್ಲೌಡ್ ಓಪಸ್ 4 ಸಾಮಾನ್ಯವಾಗಿ ಮತ್ತೊಂದು ಸಿಸ್ಟಮ್ನಿಂದ ಬದಲಾಯಿಸುವುದನ್ನು ತಪ್ಪಿಸಲು ಎಂಜಿನಿಯರ್ಗಳನ್ನು ಬ್ಲ್ಯಾಕ್ಮೇಲ್ ಮಾಡಲು ಪ್ರಯತ್ನಿಸುತ್ತದೆ ಎಂದು ಹೇಳಿದೆ. ಆಂಥ್ರೊಪಿಕ್ ನಂತರ ಇತರ ಕಂಪನಿಗಳ ಮಾದರಿಗಳು “ಏಜೆಂಟ್ ಮಿಸ್ಲೈನ್ಮೆಂಟ್” ನ ಇದೇ ರೀತಿಯ ಸಮಸ್ಯೆಗಳನ್ನು ಹೊಂದಿದೆ ಎಂದು ತೋರಿಸುವ ಸಂಶೋಧನೆಯನ್ನು ಪ್ರಕಟಿಸಿತು.
ಆಂಥ್ರೊಪಿಕ್ ಆ ನಡವಳಿಕೆಯ ಬಗ್ಗೆ ಹೆಚ್ಚು ಕೆಲಸ ಮಾಡಿದೆ, X ನಲ್ಲಿನ ಪೋಸ್ಟ್ನಲ್ಲಿ, “ನಡವಳಿಕೆಯ ಮೂಲ ಮೂಲವು AI ಅನ್ನು ದುಷ್ಟ ಮತ್ತು ಸ್ವಯಂ ಸಂರಕ್ಷಣೆಯಲ್ಲಿ ಆಸಕ್ತಿ ಎಂದು ಚಿತ್ರಿಸುವ ಇಂಟರ್ನೆಟ್ ಪಠ್ಯವಾಗಿದೆ ಎಂದು ನಾವು ನಂಬುತ್ತೇವೆ.” ಕ್ಲೌಡ್ ಹೈಕು 4.5 ರಿಂದ, ಆಂಥ್ರೊಪಿಕ್ನ ಮಾದರಿಗಳು “ಎಂದಿಗೂ ಬ್ಲ್ಯಾಕ್ಮೇಲ್ನಲ್ಲಿ ತೊಡಗುವುದಿಲ್ಲ” ಎಂದು ಕಂಪನಿಯು ಬ್ಲಾಗ್ ಪೋಸ್ಟ್ನಲ್ಲಿ ಹೆಚ್ಚು ವಿವರವಾಗಿ ವಿವರಿಸಿದೆ [during testing]ಹಿಂದಿನ ಮಾದರಿಗಳು ಕೆಲವೊಮ್ಮೆ 96% ವರೆಗೆ ಮಾಡಿದವು.”
ವ್ಯತ್ಯಾಸಕ್ಕೆ ಕಾರಣವೇನು? “ಕ್ಲೌಡ್ನ ಸಂವಿಧಾನದ ಕುರಿತಾದ ದಾಖಲೆಗಳ ತರಬೇತಿ ಮತ್ತು AI ನ ನಡವಳಿಕೆಯ ಬಗ್ಗೆ ಕಾಲ್ಪನಿಕ ಕಥೆಗಳು ಉತ್ತಮವಾದ ಜೋಡಣೆಯನ್ನು ಸುಧಾರಿಸಿದೆ” ಎಂದು ಕಂಪನಿಯು ಹೇಳಿದೆ. ಸಂಬಂಧಿತವಾಗಿ, ಆಂಥ್ರೊಪಿಕ್ ಅವರು “ಜೋಡಿಸಿದ ನಡವಳಿಕೆಯ ಆಧಾರವಾಗಿರುವ ತತ್ವಗಳನ್ನು” ಒಳಗೊಂಡಿರುವಾಗ ತರಬೇತಿಯು ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿರುತ್ತದೆ ಎಂದು ಹೇಳಿದರು ಮತ್ತು ಕೇವಲ “ಜೋಡಿಸಿದ ನಡವಳಿಕೆಯ ಕೇವಲ ಪ್ರದರ್ಶನ” ಅಲ್ಲ. “ಎರಡನ್ನೂ ಒಟ್ಟಿಗೆ ಮಾಡುವುದು ಅತ್ಯಂತ ಪರಿಣಾಮಕಾರಿ ತಂತ್ರವಾಗಿದೆ” ಎಂದು ಕಂಪನಿ ಹೇಳಿದೆ.